Skip to content

HackTechDev/ollama_bridge

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 
 
 

Repository files navigation

ollama_bridge (Luanti / Minetest)

Un mod minimal qui connecte Luanti (Minetest) à un serveur Ollama local via HTTP.

Installation

  1. Dézippez ce dossier dans mods/ (ou worldmods/ de votre monde).
  2. Dans minetest.conf, autorisez le mod à utiliser l'HTTP sandbox :
    secure.trusted_mods = ollama_bridge
    (Évitez secure.enable_security = false sauf pour tester.)
  3. Assurez-vous qu'Ollama tourne et que le modèle est présent :
    ollama pull llama2:latest
    ollama serve         # ou 'ollama run llama2:latest'

Paramètres (Settings → All Settings → Mods → ollama_bridge)

  • ollama_bridge.base_url (défaut: http://127.0.0.1:11434)
  • ollama_bridge.model (défaut: llama2:latest)
  • ollama_bridge.temperature (défaut: 0.7)
  • ollama_bridge.num_predict (défaut: 0 → laisse Ollama décider; sinon mettre p.ex. 128 pour réduire la latence)
  • ollama_bridge.timeout_ms (défaut: 120000)
  • ollama_bridge.stream (défaut: true)

Commandes en jeu

  • /ollama <prompt> : envoie un prompt et affiche la réponse dans le chat.
  • /ollama_model [model] : affiche ou change le modèle utilisé.
  • /ollama_ui : petite interface graphique (formspec) avec historique (par joueur).

Notes

  • Avec stream=true, la réponse est reçue en plusieurs fragments JSON que le mod concatène.
  • La toute première génération peut être lente (warm-up). Si vous voyez un timeout, augmentez timeout_ms et/ou réduisez num_predict.
  • Si vous êtes sous WSL/Docker/Flatpak, vérifiez l’accessibilité à 127.0.0.1:11434 depuis le processus de Luanti.

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages