L'apprentissage automatique pour les applications à haut risque
by Patrick Hall, James Curtis, Parul Pandey
Chapitre 5. Sécurité pour l'apprentissage automatique
Si "le pire ennemi de la sécurité est la complexité", comme l'affirme Bruce Schneier, les systèmes d'apprentissage automatique indûment complexes sont intrinsèquement peu sûrs. D'autres chercheurs ont également publié de nombreuses études décrivant et confirmant des failles de sécurité spécifiques aux systèmes d'apprentissage automatique. Et nous commençons maintenant à voir comment les attaques du monde réel se produisent, comme les agents de l'État islamique qui brouillent leurs logos dans le contenu en ligne pour échapper aux filtres des médias sociaux. Étant donné que les organisations prennent souvent des mesures pour sécuriser les logiciels et les données de valeur, les systèmes ML ne devraient pas faire exception. Au-delà des plans spécifiques de réponse aux incidents, plusieurs processus supplémentaires de sécurité de l'information devraient être appliqués aux systèmes ML. Il s'agit notamment du débogage de modèles spécialisés, des audits de sécurité, de la chasse aux bogues et du red-teaming.
Voici quelques-unes des principales menaces qui pèsent sur la sécurité des systèmes ML d'aujourd'hui :
-
Manipulation par un initié des données d'entraînement du système ML ou du logiciel pour modifier les résultats du système.
-
Manipulation des fonctionnalités et des résultats du système de ML par ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access