Le développement et l’engouement rapides autour de l’intelligence artificielle (IA) ont conduit à prioriser la performance des algorithmes au détriment de leur interprétabilité ; un déficit qui pose des problèmes juridique, opérationnels et éthiques. Un nouveau pan de recherche émerge et se concentre sur la question de l’impénétrabilité de l’IA: il s’agit du machine learning (ML) interprétable, qui dessine une nouvelle dynamique dans laquelle l’interprétabilité pourrait devenir le nouveau critère d’évaluation des modèles. Notre projet de E3 consiste à construire des explications de modèles de ML, considérés comme des « boîtes noires », sous la forme d’une « boîte à outils ». Nous nous focalisons sur les techniques qui semblent être les plus pertinentes, à savoir LIME, SHAP, PDP, ICE, permutation features et shapley value.
Tuteurs : Giovanni CHIERCHIA et Thibaud VIENNE