Assistant IA local pour développeurs utilisant Ollama. L'application analyse un projet, indexe le code et fournit des fonctionnalités de chat, documentation, tests et refactor.
- Python 3.12 à 3.13 recommandé (3.14 nécessite des ajustements pour pydantic-core)
- Ollama installé localement
- Modèles :
deepseek-coder:6.7b,qwen2.5-coder:7b
python -m venv .venv
source .venv/bin/activate
pip install -r requirements.txtNote Python 3.14 : pydantic-core peut échouer à compiler. Dans ce cas, utilisez Python 3.12/3.13.
Copier .env.example en .env puis ajuster si nécessaire.
Variables principales :
OLLAMA_URL(par défauthttp://localhost:11434)MODEL_CODE(par défautdeepseek-coder:6.7b)MODEL_REASONING(par défautqwen2.5-coder:7b)IGNORE_FILES(par défaut.env,.env.*,*.env)
source .venv/bin/activate
uvicorn app.main:app --reloadGET /healthPOST /chatPOST /docs/generatePOST /tests/generatePOST /refactor/suggestPOST /projects/indexGET /projects/{id}/statsGET /projects/{id}/treeGET /(UI locale)
Ouvrir http://127.0.0.1:8000/.
source .venv/bin/activate
pytestVoir docs/ARCHITECTURE.md.