Ce projet est un chatbot React qui utilise Ollama avec le modèle Mistral pour générer des réponses.
- Installez Ollama si ce n'est pas déjà fait
- Installez le modèle Mistral :
ollama pull mistral
- Lancez Ollama :
ollama serve
-
Installez les dépendances :
npm install
-
Lancez l'application :
npm run dev
src/components/Chatbot.tsx: Le composant principal du chatbotsrc/components/Chatbot.css: Les styles du chatbotsrc/App.tsx: Point d'entrée de l'application
L'application utilise directement l'API REST d'Ollama pour communiquer avec le modèle Mistral. C'est une approche plus simple et plus efficace que d'utiliser une couche de compatibilité comme FastMCP car :
- Ollama a déjà une API REST simple et bien documentée
- Pas besoin d'une couche supplémentaire qui ajouterait de la complexité
- Meilleure performance car une couche de moins à traverser
- Plus facile à maintenir et à comprendre { files: ['**/*.{ts,tsx}'], extends: [ // Other configs... // Enable lint rules for React reactX.configs['recommended-typescript'], // Enable lint rules for React DOM reactDom.configs.recommended, ], languageOptions: { parserOptions: { project: ['./tsconfig.node.json', './tsconfig.app.json'], tsconfigRootDir: import.meta.dirname, }, // other options... }, }, ])