Solution d'IA souveraine conçue pour interroger ses cours (PDF, Markdown) en toute confidentialité, sans qu'aucune donnée ne quitte votre machine.
- 🔒 100% Local : Utilisation d'Ollama (Llama 3/Mistral). Confidentialité totale garantie.
- 🧠 Conscience du Contexte : Utilise la technique du RAG (Retrieval-Augmented Generation) pour limiter les hallucinations.
- ⚡ Performance : Optimisé pour tourner sur une configuration matériel standard.
graph LR
A[PDF Cours] --> B(Chunking)
B --> C{Vector Store}
D[Question] --> E(Retriever)
E --> C
C --> F(Llama 3 via Ollama)
F --> G[Réponse Contextuelle]
- Sprint 1 : Configuration de l'environnement (Ollama, Python venv)
- Sprint 2 : Ingestion des PDF & Text Splitting (Chunking intelligent)
- Sprint 3 : Création du Vector Store (ChromaDB)
- Sprint 4 : Implémentation de la chaîne de Retrieval & Prompt Engineering
- Sprint 5 : Interface utilisateur Streamlit & Visualisation des sources
# 1. Cloner le projet
git clone [https://github.com/xRavess/Projet_RAG-Local.git](https://github.com/xRavess/Projet_RAG-Local.git)
cd Projet_RAG-Local
# 2. Créer l'environnement virtuel
python -m venv .venv
# 3. Activer l'environnement
# Sur Windows :
.venv\Scripts\activate
# Sur Mac/Linux :
source .venv/bin/activate
# 4. Installer les dépendances
pip install -r requirements.txt
### 3. Lancement
```bash
streamlit run app.pyProjet personnel réalisé en parallèle de mon cursus à CY Tech.