L'apprentissage automatique pour les applications à haut risque
by Patrick Hall, James Curtis, Parul Pandey
Chapitre 4. Gérer les biais dans l'apprentissage automatique
La gestion des effets néfastes des biais dans les systèmes d'apprentissage automatique ne se résume pas aux données, au code et aux modèles. La qualité moyenne des performances de notre modèle - la principale façon dont on apprend aux scientifiques des données à évaluer la qualité d'un modèle - n'a pas grand-chose à voir avec le fait qu'il cause ou non des préjudices dus à des biais dans le monde réel. Un modèle parfaitement précis peut causer des préjudices de biais. Pire encore, tous les systèmes de ML présentent un certain niveau de biais, les incidents de biais semblent être parmi les incidents d'IA les plus courants (voir figure 4-1), les biais dans les processus commerciaux entraînent souvent une responsabilité juridique, et les biais dans les modèles de ML blessent des personnes dans le monde réel.
Figure 4-1. La fréquence des différents types d'incidents liés à l'IA d'après une analyse qualitative de 169 incidents signalés publiquement entre 1988 et le 1er février 2021(figure reproduite avec l'aimable autorisation de BNH.AI).
Ce chapitre mettra en avant des approches pour détecter et atténuer les biais de manière sociotechnique, du moins au mieux de nos capacités en tant que techniciens ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access