L'apprentissage automatique pour les applications à haut risque
by Patrick Hall, James Curtis, Parul Pandey
Chapitre 9. Débogage d'un classificateur d'images PyTorch
Même dans les années 2010, marquées par le battage médiatique, les chercheurs en Deep Learning (DL) ont commencé à remarquer certaines "propriétés intrigantes" de leurs nouveaux réseaux profonds. Le fait qu'un bon modèle avec des performances de généralisation in silico élevées puisse également être facilement trompé par des exemples adverses est à la fois déroutant et contre-intuitif. Des questions similaires ont été soulevées par les auteurs dans l'article fondateur"Deep Neural Networks Are Easily Fooled : High Confidence Predictions for Unrecognizable Images" lorsqu'ils se sont demandé comment il était possible pour un réseau neuronal profond de classer des images comme des objets familiers alors qu'elles étaient totalement méconnaissables pour des yeux humains ? Si on ne l'avait pas déjà compris, il est devenu évident que, comme tous les autres systèmes d'apprentissage automatique, les modèles DL doivent être débogués et remédiés, en particulier pour une utilisation dans des scénarios à haut risque. Au chapitre 7, nous avons entraîné un classificateur d'images de pneumonie et utilisé diverses techniques d'explication post hoc pour résumer les résultats. Nous avons également abordé le lien entre les techniques d'explicitation DL et le débogage. Dans ce chapitre, nous reprendrons là où nous ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access