Chapitre 2. Aperçu de l'explicabilité
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
L'explicabilité fait partie de l'apprentissage automatique depuis la création de l'IA. Les toutes premières IA, les systèmes de chaînes basés sur des règles, étaient spécifiquement construits pour fournir une compréhension claire de ce qui a conduit à une prédiction. Le domaine a continué à rechercher l'explicabilité en tant qu'élément clé des modèles, en partie en raison de l'accent mis sur l'IA générale, mais aussi pour justifier que la recherche était saine et sur la bonne voie, pendant de nombreuses décennies, jusqu'à ce que la complexité des architectures de modèles dépasse notre capacité à expliquer ce qui se passait. Après l'introduction des neurones ML et des réseaux neuronaux dans les années 1980,1 la recherche sur l'explicabilité a diminué, car les chercheurs se sont concentrés sur la survie au premier hiver de l'IA en se tournant vers des techniques "explicables" parce qu'elles reposaient uniquement sur des techniques statistiques, telles que l'inférence bayésienne, qui avaient fait leurs preuves dans d'autres domaines. L'explicabilité sous sa forme moderne (et ce sur quoi nous nous concentrons largement dans ce livre) a été relancée, désormais en tant que domaine de recherche distinct, au milieu des années 2010 en réponse à la question persistante de Ce modèle fonctionne vraiment bien... mais comment ...