New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Filling masks #33
Comments
Bonjour, Merci pour votre intérêt à Flaubert ! Et désolé pour le retard. Vous pouvez utiliser from transformers import pipeline
nlp_fill = pipeline('fill-mask', model="flaubert/flaubert_base_cased", topk=3)
nlp_fill("Paris est la <special1> de la France.") Résultat :
|
Merci de votre réponse ! Je clos le issue :D |
Juste par précaution s'il y a d'autres personnes qui tombent sur cet issue, l'option topk est maintenant top_k |
Bonne idée de le préciser. Merci |
Bonjour bonjour ! Merci d'avoir partagé le modèle !
Dans Camembert il est assez facile de deviner un mot à partir du contexte, y a-t-il un working example dans Flaubert ?
Merci d'avance !
The text was updated successfully, but these errors were encountered: