From 1762332079c05278ae8239046dede3b3b9e986d3 Mon Sep 17 00:00:00 2001 From: dupre Date: Mon, 17 Oct 2016 20:57:32 +0200 Subject: [PATCH] fix latex notebooks --- _doc/notebooks/td2a_ml/ml_c_machine_learning_problems.ipynb | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/_doc/notebooks/td2a_ml/ml_c_machine_learning_problems.ipynb b/_doc/notebooks/td2a_ml/ml_c_machine_learning_problems.ipynb index ee7e609d7..4c86a7bb4 100644 --- a/_doc/notebooks/td2a_ml/ml_c_machine_learning_problems.ipynb +++ b/_doc/notebooks/td2a_ml/ml_c_machine_learning_problems.ipynb @@ -768,7 +768,7 @@ "\n", "*arbre*\n", "\n", - "On \u00e9crit rarement le crit\u00e8re \u00e0 optimiser pour l'arbre dans sa totalit\u00e9 mais seulement pour une feuille de l'arbre qu'on cherche \u00e0 d\u00e9couper. On optimise une m\u00e9trique ([Gini](https://en.wikipedia.org/wiki/Decision_tree_learning#Gini_impurity), [entropie](https://en.wikipedia.org/wiki/Decision_tree_learning#Information_gain), [variance](https://en.wikipedia.org/wiki/Decision_tree_learning#Variance_reduction)). Si on note $f(k)$ la proportion d'\u00e9l\u00e9ments bien class\u00e9s par cette feuille. Le crit\u00e8re optimis\u00e9 est : $ - \\sum_k f(k)\\ln f(k)$." + "On \u00e9crit rarement le crit\u00e8re \u00e0 optimiser pour l'arbre dans sa totalit\u00e9 mais seulement pour une feuille de l'arbre qu'on cherche \u00e0 d\u00e9couper. On optimise une m\u00e9trique ([Gini](https://en.wikipedia.org/wiki/Decision_tree_learning#Gini_impurity), [entropie](https://en.wikipedia.org/wiki/Decision_tree_learning#Information_gain), [variance](https://en.wikipedia.org/wiki/Decision_tree_learning#Variance_reduction)). Si on note $f(k)$ la proportion d'\u00e9l\u00e9ments bien class\u00e9s par cette feuille. Le crit\u00e8re optimis\u00e9 est : $-\\sum_k f(k)\\ln f(k)$." ] }, {