Skip to content

BenjaminPolge/HealthChat

Repository files navigation

HealthChat

Interface web de santé par IA générative. Posez vos questions de santé à une IA, envoyez des images (radios, photos) pour une analyse visuelle, le tout dans une interface moderne et mobile-first.

React TypeScript Vite TailwindCSS

Fonctionnalités

  • Chat IA : Interrogez une IA sur vos questions de santé via une interface de messagerie intuitive
  • Analyse d'images : Envoyez des radios, photos du corps, etc. pour une analyse visuelle par l'IA
  • Onboarding : Renseignez votre profil (prénom, âge, poids, antécédents) pour des réponses personnalisées
  • Multi-modèles : Support OpenAI (GPT-5.4 avec vision) et Ollama (modèles open source)
  • Mobile-first : Interface responsive optimisée pour smartphone
  • Stockage local : Toutes les données restent sur votre navigateur (localStorage)
  • Déploiement statique : Compatible Vercel, Netlify, GitHub Pages

Prérequis

  • Node.js >= 18
  • npm >= 9
  • Une clé API OpenAI (pour le mode OpenAI) ou un serveur Ollama (pour le mode open source)

Installation

# 1. Cloner le dépôt
git clone https://github.com/BenjaminPolge/HealthChat.git
cd HealthChat

# 2. Installer les dépendances
npm install

# 3. Lancer le serveur de développement
npm run dev

L'application sera accessible sur http://localhost:5173.

Configuration

Première utilisation

Au premier lancement, un formulaire d'onboarding vous demandera de renseigner :

  • Prénom
  • Âge
  • Poids
  • Antécédents médicaux

Ces informations sont stockées localement et injectées dans le prompt system pour personnaliser les réponses de l'IA.

Configurer le modèle IA

Cliquez sur le bouton ⚙️ en haut à droite pour accéder aux paramètres :

Option 1 : OpenAI (par défaut)

  1. Sélectionnez OpenAI
  2. Entrez votre clé API OpenAI (commence par sk-...)
  3. Le modèle par défaut est gpt-5.4 (supporte la vision pour l'analyse d'images)

Pour obtenir une clé API : platform.openai.com/api-keys

Option 2 : Ollama (modèles open source)

  1. Installez Ollama sur votre machine
  2. Téléchargez un modèle : ollama pull llama3
  3. Dans les paramètres de HealthChat, sélectionnez Ollama
  4. Configurez l'URL du serveur (par défaut : http://localhost:11434)
  5. Indiquez le nom du modèle (ex : llama3, llava pour le support image)

Build et déploiement

# Build de production
npm run build

# Prévisualiser le build
npm run preview

Le dossier dist/ généré contient tous les fichiers statiques prêts à être déployés.

Déployer sur Vercel

npm i -g vercel
vercel --prod

Déployer sur Netlify

npm i -g netlify-cli
netlify deploy --prod --dir=dist

Déployer sur GitHub Pages

  1. Ajoutez base: '/NOM_DU_REPO/' dans vite.config.ts
  2. Lancez npm run build
  3. Déployez le contenu du dossier dist/

Scripts disponibles

Commande Description
npm run dev Lance le serveur de développement
npm run build Build de production (TypeScript + Vite)
npm run preview Prévisualise le build de production
npm run lint Vérifie le code avec ESLint

Stack technique

  • React 18 + TypeScript
  • Vite 6 (bundler)
  • Tailwind CSS 3 (styles)
  • Lucide React (icônes)
  • API OpenAI / Ollama (IA)

Avertissement

⚠️ Cet outil ne remplace pas un avis médical. En cas d'urgence, appelez le 15 (SAMU).

About

Une application de santé pour analyser vos données de santé rapidement.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors