Capítulo 3. Explicabilidad de los datos tabulares
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Gran parte del éxito del aprendizaje profundo se ha centrado en datos no estructurados como imágenes, texto, audio y vídeo; sin embargo, la inmensa mayoría de los modelos de aprendizaje automático en producción se construyen pensando en datos tabulares. Piensa en todos los datos contenidos en bases de datos relacionales y hojas de cálculo compuestas por conjuntos de características numéricas y categóricas. Estos son ejemplos de datos estructurados y constituyen la inmensa mayoría de los casos de uso de la IA en el mundo real. En este capítulo, examinaremos las técnicas de explicabilidad que se utilizan más a menudo cuando se trabaja con datos tabulares, como los valores de Shapley, la importancia de las características de permutación, los intérpretes de árboles y varias versiones de gráficos de dependencia parcial.
Permutación Característica Importancia
Esto es lo que debes saber sobre la importancia de los rasgos de permutación:
-
Una vez que se ha ajustado un modelo a los datos de entrenamiento de , la importancia de la permutación para una sola característica mide la disminución de la puntuación de un modelo cuando se baraja aleatoriamente el valor de esa característica.
-
Al barajar los valores de una determinada característica , destruyes la capacidad del modelo para hacer predicciones significativas utilizando ...