L'apprentissage automatique pour les applications à haut risque
by Patrick Hall, James Curtis, Parul Pandey
Chapitre 3. Débogage des systèmes d'apprentissage automatiquepour la sécurité et la performance
Pendant des décennies, l'erreur ou la précision sur des données de test de maintien a été la norme selon laquelle les modèles d'apprentissage automatique sont jugés. Malheureusement, à mesure que les modèles ML sont intégrés dans des systèmes d'IA déployés à plus grande échelle et pour des applications plus sensibles, les approches standard pour l'évaluation des modèles ML se sont révélées inadéquates. Par exemple, l'aire sous la courbe (AUC) des données de test globales ne nous dit presque rien sur les biais et la discrimination algorithmique, le manque de transparence, les atteintes à la vie privée ou les vulnérabilités en matière de sécurité. Pourtant, ces problèmes sont souvent la raison pour laquelle les systèmes d'IA échouent une fois déployés. Pour obtenir des performances in vivo acceptables, nous devons tout simplement aller au-delà des évaluations in silico traditionnelles conçues principalement pour les prototypes de recherche. En outre, les meilleurs résultats en matière de sécurité et de performance se produisent lorsque les organisations sont en mesure de mélanger et d'associer les compétences culturelles et les contrôles de processus appropriés décrits au chapitre 1 avec la technologie ML qui favorise la confiance. Ce chapitre présente des ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access