Asistencia, Codificación e Integración de Desarrollo con Inteligencia Artificial ejecutándose Localmente
Demostración en Youtube
Capítulos
-
0️⃣ 📊🖥️ Monitoreo de Recursos
Supervisión y análisis de uso del sistema.
-
💻 Visual Studio Code +
-
🔨⬇️ Instalación de Extensiones:
-
-
1️⃣ 🤖💬 Consultas Directas a IA
Interacción puntual con IA para obtener respuestas.
-
💻 VSC +
-
🔨⬇️ Instalación de Extensión:
-
🤖💬 Local AI Pilot
-
🦙 Instalación de Ollama +
-
⬇️ Instalación de Modelos:
ollama pull gemma:2b ollama pull codegemma:2b
-
-
-
-
2️⃣ 🤖🖊️ Asistencia IA en Código
Autocompletado inteligente en el editor.
-
💻 VSC +
-
🔨⬇️ Instalación de Extensión:
-
🤖🖊 Llama Coder
-
🦙 Instalación/Uso de Ollama +
-
⬇️ Instalación del Modelo:
ollama pull stable-code:3b-code-q4_0
-
-
-
-
3️⃣ 🤖🦾 Codificación Integral con IA
IA codifica, compila, prueba y mejora automáticamente.
-
💻 VSC +
-
🔨⬇️ Instalación de Extensión:
-
🤖🦾 Cline (prev. Claude Dev)
-
🦙 Instalación/Uso de Ollama +
-
⬇️ Instalación de Modelos:
ollama pull hhao/qwen2.5-coder-tools:0.5b ollama pull hhao/qwen2.5-coder-tools:32b
-
-
-
-
4️⃣ 🤖⚙️ Acceso al API de IA
Integración de IA mediante programación directa.
-
🦙 Instalación/Uso de Ollama +
hhao/qwen2.5-coder-tools:32b
-
💻 VSC +
-
🐍 Python y
- ⚙️ libreria ollama
-
⬇️ Instalación de ambiente de Python
python -m venv .venv
-
⚙️ Activación de ambiente:
-
🪟 (PowerShell):
.venv/Scripts/activate
-
🍎 | 🐧:
source .venv/bin/activate
-
-
⬇️ Instalación de libreria:
pip install ollama
-
- ⚙️ libreria ollama
-
⚙️ Código
api.py
import ollama response = ollama.chat(model='hhao/qwen2.5-coder-tools:32b', messages=[ {'role': 'user', 'content': 'Cual es tu modelo de LLM?', }, ]) print(response['message']['content'])
-