CLI coding agent que usa LLMs locales via Ollama con routing inteligente de modelos.
- Router automático: clasifica cada petición y selecciona el modelo más adecuado:
coding(qwen2.5-coder:7b) → escribir, editar, refactorizar códigoreasoning(llama3.1:8b) → analizar repos, explicar, planificarfast(phi3:mini) → búsquedas, consultas rápidas
- Herramientas: lectura/escritura de archivos, búsqueda (glob + grep), ejecución de comandos, operaciones git
- Confirmación: pide permiso antes de escribir archivos o ejecutar comandos
- Python 3.11+
- Ollama corriendo localmente
cd /home/marc/Projects/ia-projects/codemonkey
python3 -m venv .venv
source .venv/bin/activate
pip install -e .ollama pull qwen2.5-coder:7b
ollama pull llama3.1:8b
ollama pull phi3:minisource .venv/bin/activate
python -m codemonkey # modo normal
python -m codemonkey -v # modo verbose (debug)| Comando | Descripción |
|---|---|
/help |
Mostrar ayuda |
/quit |
Salir |
/clear |
Limpiar historial de conversación |
/model coding|reasoning|fast|auto |
Forzar modelo o volver a automático |
/models |
Listar modelos disponibles en Ollama |
Edita config.yaml para cambiar modelos, URL de Ollama, etc.