Skip to content

Commit d201e3c

Browse files
Pimp la homepage ✨ (#249)
* abstracts * d'autres exemples * pimp * Automated changes * bug * Automated changes * Automated changes * Automated changes * guillemet * Automated changes * Automated changes * autres modifs * Automated changes * Automated changes * retire shortcode pb * Automated changes * Automated changes * remove problem with guillemets * Automated changes * Automated changes * ajoute portfolio * Automated changes * Automated changes * partie visu * autres abstracts * plein d'autres abstracts * Automated changes * Automated changes * change filtre * Automated changes Co-authored-by: github-actions[bot] <github-actions[bot]@users.noreply.github.com>
1 parent c58d2c9 commit d201e3c

File tree

37 files changed

+177
-892
lines changed

37 files changed

+177
-892
lines changed

_quarto.yml

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -9,7 +9,7 @@ jupyter: python3
99

1010
wrap: preserve
1111
keep-ipynb: true
12-
#cache: true
12+
cache: true
1313

1414
format:
1515
hugo:

build/tweak_markdown.py

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -28,6 +28,7 @@ def write_file(filename, content):
2828

2929
def clean_write_file(fl):
3030
content = read_file(fl)
31+
content = re.sub(r"(“|”)",'"',content)
3132
print(f"File: {fl}")
3233
add_text = '\n\n<script src="https://d3js.org/d3.v7.min.js"></script>\n<script src="https://cdn.plot.ly/plotly-latest.min.js"></script>'
3334
yaml, text = content.split('---\n', 2)[1:]

content/course/NLP/01_intro/index.qmd

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -17,7 +17,7 @@ summary: |
1717
où le ratio signal/bruit est faible, il est nécessaire de mettre
1818
en oeuvre une série d'étapes de nettoyage de texte. Ce chapitre va
1919
explorer quelques méthodes classiques de nettoyage en s'appuyant
20-
sur le Comte de Monte Cristo.
20+
sur le _Comte de Monte Cristo_ d'Alexandre Dumas.
2121
---
2222

2323
```{python}

content/course/NLP/02_exoclean/index.qmd

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -13,12 +13,12 @@ categories:
1313
- Exercice
1414
type: book
1515
summary: |
16-
Ce chapitre continue de présenter l'approche de data-cleaning
17-
du NLP en s'appuyant sur le corpus de trois auteurs
16+
Ce chapitre continue de présenter l'approche de __nettoyage de données__
17+
du `NLP` en s'appuyant sur le corpus de trois auteurs
1818
anglo-saxons : Mary Shelley, Edgar Allan Poe, H.P. Lovecraft.
1919
Dans cette série d'exercice nous mettons en oeuvre de manière
2020
plus approfondie les différentes méthodes présentées
21-
précedemment
21+
précedemment.
2222
---
2323

2424
```{python}

content/course/NLP/03_lda/index.qmd

Lines changed: 5 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -13,9 +13,11 @@ tags:
1313
categories:
1414
- Tutoriel
1515
summary: |
16-
Le modèle Latent Dirichlet Allocation (LDA) est un modèle probabiliste génératif qui permet
17-
de décrire des collections de documents de texte ou d’autres types de données discrètes. LDA fait
18-
partie d’une catégorie de modèles appelés “topic models”, qui cherchent à découvrir des structures
16+
Le modèle [Latent Dirichlet Allocation (LDA)](https://fr.wikipedia.org/wiki/Allocation_de_Dirichlet_latente)
17+
est un modèle probabiliste génératif qui permet
18+
de décrire des collections de documents de texte ou d’autres types de données discrètes.
19+
La `LDA` fait
20+
partie d’une catégorie de modèles appelés _"topic models"_, qui cherchent à découvrir des structures
1921
thématiques cachées dans des vastes archives de documents.
2022
---
2123

content/course/NLP/04_word2vec/index.qmd

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -14,13 +14,13 @@ categories:
1414
- Tutoriel
1515
summary: |
1616
Pour pouvoir utiliser des données textuelles dans des algorithmes
17-
de machine learning, il faut les vectoriser, c'est à dire transformer
17+
de _machine learning_, il faut les vectoriser, c'est à dire transformer
1818
le texte en données numériques. Dans ce TP, nous allons comparer
1919
différentes méthodes de vectorisation, à travers une tâche de prédiction :
20-
peut-on prédire un auteur littéraire à partir d'extraits de ses textes ?
21-
Parmi ces méthodes, on va notamment explorer le modèle Word2Vec, qui
20+
_peut-on prédire un auteur littéraire à partir d'extraits de ses textes ?_
21+
Parmi ces méthodes, on va notamment explorer le modèle `Word2Vec`, qui
2222
permet d'exploiter les structures latentes d'un texte en construisant
23-
des word embeddings (plongements de mots).
23+
des _word embeddings_ (plongements de mots).
2424
eval: false
2525
---
2626

content/course/NLP/06_elastic/functions.py

Lines changed: 0 additions & 113 deletions
This file was deleted.

0 commit comments

Comments
 (0)