Skip to content
GPT-2 French demo | Démo française de GPT-2
Jupyter Notebook Python Shell Dockerfile
Branch: master
Clone or download

Latest commit

Fetching latest commit…
Cannot retrieve the latest commit at this time.

Files

Permalink
Type Name Latest commit message Commit time
Failed to load latest commit information.
docs Delete CNAME Feb 19, 2020
gpt2-model
src
.gitignore
LICENSE Add License (acp 🤖) Oct 15, 2019
README.md Service is down. Nov 20, 2019
deploy_cloudrun.sh

README.md

GPT-2 🇫🇷

Modèle GPT-2 d'OpenAI entraîné sur quatres différents jeux de données en français:

  • Livres en français
  • Scripts de films français
  • Compte-rendus des débats parlementaires
  • Tweet d'Emmanuel Macron

permettant de faire de la génération de texte.

Une démo utilisant pour chaque jeu de données un modèle GPT-2 Small (124M) est disponible à l'adresse suivante: https://gpt2.williamjacques.fr (service down)

Usage

Cloner ce repo

git clone https://github.com/aquadzn/gpt2-french.git

Tensorflow et gpt-2-simple sont necéssaires afin de fine-tuner GPT-2. Créer un environnement puis installer les deux packages pip install tensorflow==1.14 gpt-2-simple.

Un script et un notebook sont disponibles dans le dossier src afin de fine-tuner GPT-2 sur vos propres datasets. L'output de chaque entraînement, c'est à dire le dossier checkpoint/run1, est à mettre dans gpt2-model/model1 model2 model3 etc...

image

Vous pouvez lancer le script deploy_cloudrun.sh afin de déployer tous vos différents modèles (dans gpt2-model) d'un coup. Il faut cependant avoir déjà initialisé l'outil CLI gcloud (Cloud SDK).

Modèles

Releases

Crédits

Basé sur les repos GPT2-Simple et GPT2-CloudRun de minimaxir

Licence

MIT

You can’t perform that action at this time.