L’un des défis principaux de la recherche en apprentissage actuellement est la définition d’IA de confiance, concept qui recouvre de nombreuses dimensions parmi lesquelles on peut citer: l’IA interprétable (eXplainable AI), l’IA équitable (fairness), l’IA responsable.
- Définitions d’explications, critères d’interprétabilité
- Interprétabilité par design : apprentissage interprétable de modèles interprétables
- Interprétabilité post-hoc : LIME, SHAP, génération d’exemples contrefactuels
- Approches logiques d’interprétabilité : abduction, causalité, logiques graduelles
- Aspects éthiques, éthique computationnelle
- TME 1 : algo growing spheres (exemple contre-factuels local, model free, ad-hoc) https://github.com/thibaultlaugel/growingspheres
- TME 2 : algo DICE (counterfactual explanations, local, ad hoc, +/-model based) https://github.com/interpretml/DiCE
- TME 3 : algo LIME
- TME 4 : Logique floue