Prólogo
Al desarrollar modelos de aprendizaje automático (ML), seguro que todos os habéis hecho alguna vez las preguntas: Oh, ¿cómo ha acertado eso? o Eso es raro, ¿por qué iba a predecir eso? Como ingenieros de software, nuestro primer instinto es rastrear el código para encontrar las respuestas. Por desgracia, esto no nos lleva muy lejos con los modelos de ML, porque su "código" se genera automáticamente, no es legible por el ser humano y puede abarcar un gran número (¡a veces miles de millones!) de parámetros. Se necesita un conjunto especial de herramientas para comprender los modelos ML. La IA explicable (XAI) es un campo del aprendizaje automático centrado en el desarrollo y análisis de tales herramientas.
Las explicaciones de los modelos no son sólo una característica que nos gusta tener para satisfacer nuestra curiosidad sobre cómo funciona un modelo. Para los profesionales, es imprescindible para asegurarse de que no van a ciegas. Los modelos de aprendizaje automático son famosos por acertar por la razón equivocada. Un ejemplo clásico de ello, tratado en este libro, es el de un modelo de imágenes médicas en el que las explicaciones revelaron que el modelo se basaba en "marcas de bolígrafo" en imágenes de rayos X para hacer predicciones sobre enfermedades.
El auge de los modelos ML en la toma de decisiones de alto riesgo ha desencadenado una oleada en el campo de la XAI, con una plétora de técnicas propuestas en diversas modalidades de datos. El gran número de técnicas ...