Kapitel 5. Sicherheit für maschinelles Lernen

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Wenn "der schlimmste Feind der Sicherheit die Komplexität ist", wie Bruce Schneier behauptet, sind übermäßig komplexe maschinelle Lernsysteme von Natur aus unsicher. Auch andere Forscherinnen und Forscher haben zahlreiche Studien veröffentlicht, die spezifische Sicherheitsschwachstellen für ML-Systeme beschreiben und bestätigen. Und wir sehen jetzt, wie Angriffe in der realen Welt ablaufen, wie z. B. die Agenten des Islamischen Staates, die ihre Logos in Online-Inhalten verwischen, um die Filter der sozialen Medien zu umgehen. Da Unternehmen häufig Maßnahmen ergreifen, um wertvolle Software und Daten zu schützen, sollte dies auch bei ML-Systemen der Fall sein. Neben speziellen Plänen zur Reaktion auf Vorfälle sollten bei ML-Systemen mehrere zusätzliche Verfahren zur Informationssicherheit angewendet werden. Dazu gehören spezielle Modellfehlerbehebungen, Sicherheitsaudits, Bug Bounties und Red-Teaming.

Zu den wichtigsten Sicherheitsbedrohungen für die heutigen ML-Systeme gehören die folgenden:

  • Manipulation von ML-System-Trainingsdaten oder Software durch Insider, um die Ergebnisse des Systems zu verändern

  • Manipulation von ML-Systemfunktionen und -Ergebnissen durch externe Angreifer

  • Exfiltration von geschützter ML-Systemlogik oder Trainingsdaten durch externeAngreifer

  • Trojaner oder Malware, die ...

Get Maschinelles Lernen für hochriskante Anwendungen now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.