Chapitre 7. Interagir avec l'IA explicable
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Les explications ne peuvent pas exister dans le vide. Elles sont consommées, utilisées et mises en pratique par nous-mêmes, nos collègues, les auditeurs et le public pour comprendre pourquoi une IA a agi comme elle l'a fait. Sans explicabilité (et interprétabilité), le Machine Learning (ML) est une voie à sens unique d'informations et de prédictions. Nous pouvons voir un ML faire quelque chose d'étonnant, comme traduire un paragraphe d'une langue à l'autre, mais il est rare que nous fassions confiance sans équivoque à la technologie.
Fondamentalement, nous entretenons une relation de travail avec chaque IA que nous utilisons. Imagine l'apprentissage automatique comme ton collègue de travail. Même si ce collègue faisait un travail extraordinaire, nous trouverions difficile de travailler avec lui si, lorsque nous lui demandons d'effectuer une tâche, il partait dans une autre pièce, revenait avec la réponse, puis repartait promptement, sans jamais répondre à nos questions ou réagir à une chose que nous avons dite ! Ce problème du collègue silencieux est ce que l'explicabilité tente de résoudre en entamant un dialogue bidirectionnel, comme dans la figure 7-1, entre le système de ML et ses utilisateurs. Cependant, ce dialogue est très limité étant donné la nouveauté de l'explicabilité, ce qui rend tes choix sur ...