Overview
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
La plupart des livres de niveau intermédiaire sur l'apprentissage automatique se concentrent sur la façon d'optimiser les modèles en augmentant la précision ou en diminuant l'erreur de prédiction. Mais cette approche néglige souvent l'importance de comprendre pourquoi et comment ton modèle d'apprentissage automatique fait les prédictions qu'il fait.
Les méthodes d'explicabilité fournissent une boîte à outils essentielle pour mieux comprendre le comportement des modèles, et ce guide pratique rassemble les meilleures techniques d'explicabilité des modèles. Les ingénieurs en apprentissage automatique et les scientifiques des données expérimentés apprendront concrètement comment ces techniques fonctionnent afin que tu puisses appliquer ces outils plus facilement dans ton flux de travail quotidien.
Ce livre essentiel fournit :
- Un regard détaillé sur certaines des techniques d'explicabilité les plus utiles et les plus couramment utilisées, en soulignant les avantages et les inconvénients pour t'aider à choisir le meilleur outil pour tes besoins.
- Des conseils et des bonnes pratiques pour mettre en œuvre ces techniques.
- Un guide pour interagir avec l'explicabilité et comment éviter les pièges les plus courants.
- Les connaissances dont tu as besoin pour intégrer l'explicabilité dans ton flux de travail de ML afin de contribuer à la construction de systèmes de ML plus robustes.
- Des conseils sur les techniques d'IA explicables, notamment sur la façon d'appliquer les techniques aux modèles qui consomment des données tabulaires, des images ou des textes.
- Des exemples de code de mise en œuvre en Python utilisant des bibliothèques d'explicabilité bien connues pour les modèles construits dans Keras et TensorFlow 2.0, PyTorch, et HuggingFace.