Capítulo 18. Interpretación CNN con CAM
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Ahora que sabemos cómo construir prácticamente cualquier cosa desde cero, utilicemos ese conocimiento para crear una funcionalidad totalmente nueva (¡y muy útil!): el mapa de activación de clases. Nos da una idea de por qué una CNN hizo las predicciones que hizo.
En el proceso, conoceremos una práctica función de PyTorch que no habíamos visto antes, el gancho, y aplicaremos muchos de los conceptos introducidos en el resto del libro. Si quieres poner realmente a prueba tu comprensión del material de este libro, cuando hayas terminado este capítulo, intenta dejarlo a un lado y recrear tú mismo las ideas aquí expuestas desde cero (¡sin mirar!).
CAM y Ganchos
El mapa de activación de clase (CAM) fue introducido por Bolei Zhou et al. en"Learning Deep Features for Discriminative Localization". Utiliza la salida de la última capa convolucional (justo antes de la capa de agrupación de promedios) junto con las predicciones para ofrecernos una visualización en forma de mapa de calor de por qué el modelo tomó su decisión. Es una herramienta útil para la interpretación.
Más concretamente, en cada posición de nuestra capa convolucional final, tenemos tantos filtros como en la última capa lineal. Por tanto, podemos calcular el producto punto de esas activaciones con los pesos finales para obtener, en cada posición de nuestro mapa de características, ...
Get Aprendizaje profundo para programadores con fastai y PyTorch now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.