Asistencia, Codificación e Integración de Desarrollo con Inteligencia Artificial ejecutándose Localmente

Demostración en Youtube

Capítulos

  • 0️⃣ 📊🖥️ Monitoreo de Recursos

    Supervisión y análisis de uso del sistema.

  • 1️⃣ 🤖💬 Consultas Directas a IA

    Interacción puntual con IA para obtener respuestas.

    • 💻 VSC +

    • 🔨⬇️ Instalación de Extensión:

      • 🤖💬 Local AI Pilot
        • 🦙 Instalación de Ollama +
        • ⬇️ Instalación de Modelos:
          ollama pull gemma:2b
          ollama pull codegemma:2b
          
  • 2️⃣ 🤖🖊️ Asistencia IA en Código

    Autocompletado inteligente en el editor.

    • 💻 VSC +

    • 🔨⬇️ Instalación de Extensión:

      • 🤖🖊 Llama Coder
        • 🦙 Instalación/Uso de Ollama +
        • ⬇️ Instalación del Modelo:
          ollama pull stable-code:3b-code-q4_0
          
  • 3️⃣ 🤖🦾 Codificación Integral con IA

    IA codifica, compila, prueba y mejora automáticamente.

    • 💻 VSC +

    • 🔨⬇️ Instalación de Extensión:

      • 🤖🦾 Cline (prev. Claude Dev)
        • 🦙 Instalación/Uso de Ollama +
        • ⬇️ Instalación de Modelos:
          ollama pull hhao/qwen2.5-coder-tools:0.5b
          ollama pull hhao/qwen2.5-coder-tools:32b
          
  • 4️⃣ 🤖⚙️ Acceso al API de IA

    Integración de IA mediante programación directa.

    • 🦙 Instalación/Uso de Ollama + hhao/qwen2.5-coder-tools:32b

    • 💻 VSC +

    • 🐍 Python y

      • ⚙️ libreria ollama
        • ⬇️ Instalación de ambiente de Python

          python -m venv .venv
          
        • ⚙️ Activación de ambiente:

          • 🪟 (PowerShell):
            .venv/Scripts/activate 
            
          • 🍎 | 🐧:
            source .venv/bin/activate
            
        • ⬇️ Instalación de libreria:

          pip install ollama
          
    • ⚙️ Código api.py

      import ollama
      response = ollama.chat(model='hhao/qwen2.5-coder-tools:32b',
                          messages=[
                                {'role': 'user',
                                'content': 'Cual es tu modelo de LLM?',
                                }, ])
      print(response['message']['content'])
      

Referencias