Skip to content

Commit ddc423f

Browse files
committed
Quarto rendering
1 parent cbe6459 commit ddc423f

File tree

3 files changed

+19
-2
lines changed

3 files changed

+19
-2
lines changed

content/manipulation/04_webscraping/_exo1_solution.qmd

Lines changed: 15 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -15,9 +15,24 @@ tableau_participants = page.find('table', {'class' : 'wikitable sortable'})
1515
```{python}
1616
#| echo: true
1717
#| output: asis
18+
#| eval: false
1819
print(tableau_participants)
1920
```
2021

22+
23+
::: {.cell .markdown}
24+
25+
```{python}
26+
#| echo: false
27+
#| output: asis
28+
#| eval: false
29+
print(tableau_participants)
30+
```
31+
32+
:::
33+
34+
35+
2136
::: {.content-visible when-profile="fr"}
2237
2️⃣ Récupérer chaque ligne du tableau
2338

content/manipulation/04a_webscraping_TP.qmd

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -455,7 +455,7 @@ to other use cases from *ad hoc* requests.
455455
```{python}
456456
#| echo: true
457457
#| output: false
458-
!pip install -q lxml
458+
!pip install lxml
459459
!pip install bs4
460460
```
461461

content/modelisation/1_modelevaluation.qmd

Lines changed: 3 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -125,7 +125,9 @@ Ces métriques devraient rappeler des souvenirs si vous êtes familiers de la m
125125

126126
## Apprentissage non supervisé
127127

128-
Dans cet ensemble de méthodes, on ne dispose pas de _gold standard_ pour comparer la prédiction à la valeur observée. Pour mesurer la performance d'un algorithme, il faut donc se résoudre à utiliser des métriques de convergence, basées sur des critères statistiques. Cela permet d'évaluer si le fait de complexifier l'algorithme change fondamentalement la distribution des prédictions.
128+
Dans cet ensemble de méthodes, on ne dispose pas de _gold standard_ pour comparer la prédiction à la valeur observée. Pour mesurer la performance d'un algorithme, il faut donc se résoudre à utiliser des métriques de stabilité des prédictions, basées sur des critères statistiques. Cela permet d'évaluer si le fait de complexifier l'algorithme change fondamentalement la distribution des prédictions. Les métriques utilisées dépendent du type d'apprentissage mis en oeuvre.
129+
130+
129131

130132

131133
## Comment sont évalués les grands modèles de langage ?

0 commit comments

Comments
 (0)