Un mod minimal qui connecte Luanti (Minetest) à un serveur Ollama local via HTTP.
- Dézippez ce dossier dans
mods/(ouworldmods/de votre monde). - Dans
minetest.conf, autorisez le mod à utiliser l'HTTP sandbox :(Évitezsecure.trusted_mods = ollama_bridgesecure.enable_security = falsesauf pour tester.) - Assurez-vous qu'Ollama tourne et que le modèle est présent :
ollama pull llama2:latest ollama serve # ou 'ollama run llama2:latest'
ollama_bridge.base_url(défaut:http://127.0.0.1:11434)ollama_bridge.model(défaut:llama2:latest)ollama_bridge.temperature(défaut:0.7)ollama_bridge.num_predict(défaut:0→ laisse Ollama décider; sinon mettre p.ex.128pour réduire la latence)ollama_bridge.timeout_ms(défaut:120000)ollama_bridge.stream(défaut:true)
/ollama <prompt>: envoie un prompt et affiche la réponse dans le chat./ollama_model [model]: affiche ou change le modèle utilisé./ollama_ui: petite interface graphique (formspec) avec historique (par joueur).
- Avec
stream=true, la réponse est reçue en plusieurs fragments JSON que le mod concatène. - La toute première génération peut être lente (warm-up). Si vous voyez un timeout, augmentez
timeout_mset/ou réduiseznum_predict. - Si vous êtes sous WSL/Docker/Flatpak, vérifiez l’accessibilité à
127.0.0.1:11434depuis le processus de Luanti.