Capítulo 2. Una visión general de la explicabilidad
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
La explicabilidad ha formado parte del aprendizaje automático desde los inicios de la IA. Las primeras IA, los sistemas encadenados basados en reglas, se construyeron específicamente para proporcionar una comprensión clara de qué conducía a una predicción. El campo continuó persiguiendo la explicabilidad como parte clave de los modelos, en parte debido a un enfoque en la IA general, pero también para justificar que la investigación era sensata y estaba en el buen camino, durante muchas décadas, hasta que la complejidad de las arquitecturas de los modelos superó nuestra capacidad de explicar lo que ocurría. Tras la introducción de las neuronas ML y las redes neuronales en la década de 19801 la investigación sobre la explicabilidad decayó, ya que los investigadores se centraron en sobrevivir al primer invierno de la IA recurriendo a técnicas que eran "explicables" porque se basaban únicamente en técnicas estadísticas, como la inferencia bayesiana, que estaban bien probadas en otros campos. La explicabilidad en su forma moderna (y en la que nos centramos en gran medida en este libro) resurgió, ahora como un campo de investigación distinto, a mediados de la década de 2010 en respuesta a la persistente pregunta de Este modelo funciona realmente bien... ¿pero cómo?
En sólo unos años, este campo ha pasado de la oscuridad ...