Capítulo 4. Explicabilidad de los datos de imágenes
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Introducidas en la década de 1980, las redes neuronales convolucionales (CNN), al igual que las DNN, permanecieron en desuso hasta la llegada del ML moderno, momento en el que se convirtieron rápidamente en la columna vertebral de las soluciones contemporáneas para los problemas de visión por ordenador. Desde entonces, los modelos de aprendizaje profundo basados en CNN han permitido avances sin precedentes en muchas tareas de visión por ordenador que van desde la clasificación de imágenes y la segmentación semántica hasta el subtitulado de imágenes y la respuesta a preguntas visuales, alcanzando en ocasiones un rendimiento cercano al humano. Hoy en día, puedes encontrar sofisticados modelos de visión por ordenador que se utilizan para diseñar ciudades inteligentes, monitorear el desarrollo del ganado o de los cultivos, construir coches autoconducidos o identificar enfermedades oculares o cáncer de pulmón.
A medida que sigue creciendo el número de estos sistemas inteligentes que dependen de modelos de imagen, el papel de la explicabilidad en el análisis y la comprensión de estos sistemas se ha vuelto más importante que nunca. Por desgracia, cuando estos sistemas tan complejos fallan, pueden hacerlo sin previo aviso ni explicación, y a veces con consecuencias desafortunadas. Las técnicas de explicabilidad de la IA ...