Skip to content

kaizen-mcv/codemonkey

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

2 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

codemonkey

CLI coding agent que usa LLMs locales via Ollama con routing inteligente de modelos.

Qué hace

  • Router automático: clasifica cada petición y selecciona el modelo más adecuado:
    • coding (qwen2.5-coder:7b) → escribir, editar, refactorizar código
    • reasoning (llama3.1:8b) → analizar repos, explicar, planificar
    • fast (phi3:mini) → búsquedas, consultas rápidas
  • Herramientas: lectura/escritura de archivos, búsqueda (glob + grep), ejecución de comandos, operaciones git
  • Confirmación: pide permiso antes de escribir archivos o ejecutar comandos

Requisitos

  • Python 3.11+
  • Ollama corriendo localmente

Instalación

cd /home/marc/Projects/ia-projects/codemonkey
python3 -m venv .venv
source .venv/bin/activate
pip install -e .

Modelos necesarios

ollama pull qwen2.5-coder:7b
ollama pull llama3.1:8b
ollama pull phi3:mini

Uso

source .venv/bin/activate
python -m codemonkey          # modo normal
python -m codemonkey -v       # modo verbose (debug)

Comandos del REPL

Comando Descripción
/help Mostrar ayuda
/quit Salir
/clear Limpiar historial de conversación
/model coding|reasoning|fast|auto Forzar modelo o volver a automático
/models Listar modelos disponibles en Ollama

Configuración

Edita config.yaml para cambiar modelos, URL de Ollama, etc.

About

CLI coding agent con LLMs locales via Ollama: router inteligente entre modelos de código, razonamiento y búsqueda rápida

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages