Chapitre 3. Explicabilité des données tabulaires
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Une grande partie du succès du Deep Learning s'est concentrée sur les données non structurées comme les images, le texte, l'audio et la vidéo ; cependant, la grande majorité des modèles d'apprentissage automatique en production sont construits avec des données tabulaires à l'esprit. Pense à toutes les données contenues dans les bases de données relationnelles et les feuilles de calcul composées d'ensembles de caractéristiques numériques et catégorielles. Ce sont des exemples de données structurées et elles constituent la grande majorité des cas d'utilisation de l'IA dans le monde réel. Dans ce chapitre, nous examinerons les techniques d'explicabilité qui sont le plus souvent utilisées lorsque l'on travaille avec des données tabulaires, comme les valeurs de Shapley, l'importance des caractéristiques de permutation, les interpréteurs d'arbres et diverses versions de diagrammes de dépendance partielle.
Permutation Importance de la caractéristique
Voici ce que tu dois savoir sur l'importance des caractéristiques de permutation :
-
Une fois qu'un modèle a été adapté aux données d'entraînement , l'importance de la permutation pour une caractéristique unique mesure la diminution du score d'un modèle lorsque la valeur de cette caractéristique est mélangée de façon aléatoire.
-
En mélangeant les valeurs d'une ...