Capítulo 8. Aprendizaje automático adversarial
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
A medida que el aprendizaje automático comienza a desplegarse de forma ubicua en sistemas críticos, su fiabilidad se somete naturalmente a escrutinio. Aunque es importante no ser alarmista, la amenaza que suponen los agentes adversarios para los sistemas de aprendizaje automático es real. Del mismo modo que un pirata informático puede aprovecharse de la vulnerabilidad de un cortafuegos para acceder a un servidor web, un sistema de aprendizaje automático puede convertirse en objetivo de un atacante. Por lo tanto, antes de poner estas soluciones en la línea de fuego, es crucial tener en cuenta sus puntos débiles y comprender lo maleables que son bajo tensión.
El aprendizaje automático adversario es el estudio de las vulnerabilidades del aprendizaje automático en entornos adversarios. Los investigadores en seguridad y aprendizaje automático han publicado investigaciones sobre ataques prácticos contra motores antivirus de aprendizaje automático,1 filtros antispam,2 detectores de intrusiones en la red, clasificadores de imágenes,3 analizadores de sentimientos,4,5 y otros. Esta ha sido un área de investigación cada vez más activa en los últimos tiempos, a pesar de que estos ataques rara vez se han observado en la naturaleza. Cuando la seguridad de la información, las soberanías nacionales y las vidas humanas están en juego, ...