Vorwort

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Die Nutzung von KI als Werkzeug zur Lösung realer Herausforderungen hat ein rasantes Wachstum erfahren, sodass diese Systeme in unserem Leben allgegenwärtig sind. Immer häufiger wird maschinelles Lernen (ML) eingesetzt, um wichtige Entscheidungen zu treffen, und es wird in Anwendungen vom Gesundheitswesen bis zum autonomen Fahren eingesetzt. Mit diesem Wachstum ist die Notwendigkeit, diese undurchsichtigen KI-Systeme zu erklären, noch dringender geworden, und in vielen Fällen ist die fehlende Erklärbarkeit ein Hindernis für Anwendungen, bei denen die Interpretierbarkeit entscheidend ist.

Dieses Buch ist eine Sammlung einiger der effektivsten und am häufigsten verwendeten Techniken, um zu erklären, warum ein ML-Modell die Vorhersagen trifft, die es macht. Wir erörtern die vielen Aspekte der erklärbaren KI (Explainable AI, XAI), einschließlich der Herausforderungen, der Erfolgskriterien und der Fallstudien, die als Leitfaden für bewährte Methoden dienen. Ziel dieses Buches ist es, die Lücke zwischen den zahlreichen Arbeiten zu schließen, die auf dem Gebiet der XAI geleistet wurden, und eine Kurzreferenz für Praktiker/innen zu bieten, die XAI in ihren ML-Workflow integrieren wollen.

Wer sollte dieses Buch lesen?

Die Erklärbarkeit von Modellen ist für jeden wichtig, der mit diesen Modellen interagiert oder sie entwickelt - von den Ingenieuren und Produktverantwortlichen, die diese Systeme entwickeln, bis hin zu den Stakeholdern im Unternehmen und den Menschen, die sie nutzen. Dieses Buch richtet sich an alle, die die bewährten Methoden der erklärbaren KI in ihre ML-Lösungen integrieren wollen. Jeder, der sich für die Erklärbarkeit von Modellen und die Interpretierbarkeit von Modellen interessiert, wird von den Diskussionen in diesem Buch profitieren.

Unser Hauptaugenmerk liegt jedoch auf Praktikern, d.h. Ingenieuren und Datenwissenschaftlern, die ML-Modelle und Methoden zur Integration von Erklärbarkeit in ihre aktuellen Arbeitsabläufe entwickeln müssen. Dieses Buch führt dich in einen Ideenkatalog zur Erklärbarkeit von Modellen ein und ermöglicht es dir, dich schnell in diesem immer wichtiger werdenden und sich schnell entwickelnden Bereich der KI zurechtzufinden. Wir besprechen bewährte Methoden für die Umsetzung dieser Techniken und helfen dir, fundierte Entscheidungen darüber zu treffen, welche Technik du wann einsetzen solltest. Wir werden auch einen Blick auf das große Ganze werfen und erörtern, wie XAI im gesamten ML-Workflow eingesetzt werden kann, um dir beim Aufbau robusterer ML-Lösungen zu helfen.

Dieses Buch ist nicht als Grundlagenwerk zum maschinellen Lernen gedacht. Daher werden wir keine Zeit darauf verwenden, spezifische Modellarchitekturen oder Details der Modellbildung zu besprechen. Wir gehen davon aus, dass du mit den Grundlagen des maschinellen Lernens und der Datenverarbeitung bereits einigermaßen vertraut bist. Wir gehen auf diese Konzepte ein, wenn sie auftauchen, verweisen dich aber auf die zahlreichen anderen Quellen, um alle verbleibenden Lücken zu schließen.

Was steht in diesem Buch und was nicht?

Erklärbarkeit ist einer der Kerngedanken von Responsible AI. Verantwortungsvolle KI ist ein breites und aufstrebendes Feld, das Themen wie Fairness in der künstlichen Intelligenz, KI-Ethik, Governance sowie Datenschutz und Sicherheit umfasst. Wir werden in diesem Buch nicht auf diese anderen Bereiche eingehen, auch wenn sie im Kontext auftauchen könnten. Die Erklärbarkeit hat in den letzten Jahren immer mehr an Bedeutung gewonnen. Die akademische Forschung ist sehr aktiv und konzentriert sich auf die Erklärbarkeit von Modellen und die Entwicklung modernster Techniken. Wir werden zwar gelegentlich auf einige dieser Forschungsarbeiten verweisen, aber das ist nicht das Ziel dieses Buches, und wir werden auch nicht tief in die aktiven Forschungsthemen eintauchen. Alle hier besprochenen Techniken basieren auf einer mathematischen Theorie, sei es die Spieltheorie oder die mathematische Optimierung, und obwohl es manchmal hilfreich ist, diese theoretischen Grundlagen zu verstehen, ist das nicht der Schwerpunkt dieses Buches. Auch wenn diese Methoden eine solide theoretische Grundlage haben, sind ihre Anwendung und ihre Vorteile noch lange nicht bekannt. Unser Ziel ist es, dir, dem Praktiker, dabei zu helfen, dich schnell auf dem Gebiet zurechtzufinden, gängige XAI-Techniken zu erlernen und einen Einblick in die schwierige Grauzone zu bekommen, wie du diese Werkzeuge in deinen ML-Systemen anwenden kannst.

Dies ist ein Buch für ML-Ingenieure, die in der Industrie arbeiten, mit einem Schwerpunkt auf der praktischen Umsetzung für reale Anwendungen. Das Buch richtet sich nicht an Forscherinnen und Forscher in Industrielabors oder an Hochschulen, obwohl es für angehende Forscherinnen und Forscher eine wertvolle Referenz sein kann. Im Allgemeinen gehen wir nicht auf die Theorie hinter den verschiedenen Techniken ein, sondern stellen die Mathematik und die Referenzdokumente ausführlich dar, damit du bei Bedarf weitere Nachforschungen anstellen kannst.

Wenn wir zum Beispiel in Kapitel 4 über Integrierte Gradienten sprechen, verwenden wir keine Zeit darauf, zu erklären, wie Linienintegrale definiert und mathematisch berechnet werden, sondern versuchen, eine Intuition zu vermitteln, die erklärt, wie die Formeln verwendet werden. Dabei werden wir sehen, wie diese Intuition dazu beitragen kann, die bewährten Methoden für die Umsetzung von Integrierten Gradienten zu bestimmen, z. B. wie sich eine unterschiedliche Anzahl von Teilintervallen bei der Annäherung an das Integral auf das Ergebnis auswirkt.

In diesem Buch zeigen wir dir, wie du als ML-Praktiker - also als jemand, der bereits mit maschinellem Lernen vertraut ist, z. B. als Datenwissenschaftler oder ML-Ingenieur - Erklärbarkeit effektiv umsetzen und nutzen kannst. Wir gehen davon aus, dass du mit den gängigen ML-Architekturen vertraut bist, aber vielleicht nicht die genauen Implementierungsdetails kennst und ein gewisses Maß an Programmierkenntnissen mitbringst, da es für einige Erklärbarkeitstechniken keine gute Standardimplementierung gibt. Unser Ziel in diesem Buch ist es, dich in deiner täglichen ML-Arbeit in die Lage zu versetzen, Erklärungen zu erstellen, warum sich ein Modell verhält und wie ein Datensatz dieses Modell beeinflusst. Um dies zu erreichen, werden wir dir drei Konzepte vermitteln:

  • Verstehe das Feld der erklärbaren KI, damit du das nötige Hintergrundwissen hast, um Entscheidungen darüber zu treffen, wie, warum und wo Erklärbarkeit eingesetzt werden soll und wie Erklärungen für verschiedene Zielgruppen zugeschnitten werden können (Kapitel 2 und 7).

  • Dir einen Werkzeugkasten mit bewährten Erklärungsmethoden für verschiedene Situationen an die Hand geben (Kapitel 3 bis 5). Obwohl viele Erklärungsmethoden auf unterschiedliche Weise eingesetzt werden können, ist es am einfachsten, sie nach der Art des Modells zu ordnen (z. B. strukturierte Daten, Bilder, Texte).

  • Verstehe, wohin sich erklärbare KI in Zukunft entwickelt und was du beachten musst, wenn du dich an den Rand der Karte der bekannten Erklärbarkeit begibst (Kapitel 6 und 8).

Dieses Buch ist pragmatisch. Unser Ziel ist es nicht, strenge Beweise für eine bestimmte Technik zu liefern. Stattdessen versuchen wir, ein Gefühl dafür zu vermitteln, wie eine bestimmte Technik funktioniert, und konzentrieren uns dabei auf die praktischen Umsetzungsüberlegungen, die du als ML-Praktiker vielleicht hast. Es kann also sein, dass es Formeln gibt, aber nur insofern, als dass sie helfen, eine Idee zu veranschaulichen oder zu begründen, warum man einen bestimmten Satz von Hyperparametern für ein bestimmtes Verfahren einem anderen vorziehen könnte. Wo es möglich ist, verweisen wir auf bewährte Implementierungen der Techniken. Wenn das nicht möglich ist, stellen wir eine Referenzimplementierung zur Verfügung, die du wiederverwenden oder an deine Situation anpassen kannst, sowie ein GitHub-Repository für Code- und Notizbuchbeispiele.

Pragmatismus erfordert die Unterscheidung zwischen dem, was für ein bestimmtes Szenario am besten ist. Deshalb haben wir auch eine Meinung zu den Techniken, die wir für deinen Werkzeugkasten ausgewählt haben. Unsere Auswahl repräsentiert nicht alle Optionen, die in der Explainable AI zur Verfügung stehen. Bei der Auswahl der Techniken für diese Toolbox haben wir die folgenden Heuristiken angewandt, um zu entscheiden, was wir abdecken wollen:

  • Wurde diese Technik in der Industrie ausreichend eingesetzt, so dass wir ihre Vorteile und Schwächen verstehen? Wir bevorzugen Techniken, die seit mindestens ein paar Jahren im Einsatz sind und für die es viele Fallstudien gibt, die ihren Nutzen belegen.

  • Wie viel Fachwissen über erklärbare KI ist erforderlich, um diese Technik richtig anzuwenden oder umzusetzen? Im Allgemeinen bevorzugen wir Techniken, die weniger Fachwissen erfordern, da wir davon ausgehen, dass du dieses Buch liest, um zu verstehen, wie man Erklärbarkeit einsetzt, und nicht, um dir ein tiefes Fachwissen über Erklärbarkeit anzueignen (wofür es bereits viele andere hervorragende Bücher gibt).

  • Wie spröde und/oder widerstandsfähig ist die Technik? Wir legen Wert auf Techniken, die in mehr Situationen eingesetzt werden können und weniger leicht brechen, wenn sie nicht richtig konfiguriert sind.

Wenn du dieses Buch liest, wirst du feststellen, dass wir auch viele Techniken behandeln, die erklären, wie der Datensatz und seine Struktur das Verhalten des Modells beeinflusst haben. Das mag kontraintuitiv erscheinen: Warum beschäftigen wir uns mit Datensätzen, wenn wir doch die Modelle besser verstehen wollen? Für diesen Ansatz gibt es zwei Gründe. Der erste ist, dass der ML-Praktiker die Kontrolle über die Daten hat und sie leicht ändern kann: Es ist in der Regel viel einfacher, einen Datensatz zu manipulieren, als eine Modellarchitektur neu zu erstellen oder zu ändern. Zweitens finden wir viele der Techniken, die sich auf das Modell selbst konzentrieren, um Erklärungen zu generieren, zwar faszinierend, aber letztlich nicht umsetzbar. Einige Erklärungsmethoden versuchen zum Beispiel, das Verhalten von CNN-Bildklassifizierungsmodellen zu erklären, indem sie künstliche Bilder erstellen, die zeigen, wie das Modell ein Bild auf verschiedenen Ebenen wahrnimmt. Diese Art von Technik liefert zwar faszinierende Erklärungen, die zu einer lebhaften Diskussion über die Funktionsweise von CNNs führen, aber wir haben noch nicht erlebt, dass diese Technik in der Industrie konsequent angewendet wird, um eines der oben genannten Ziele der Erklärbarkeit zu erreichen.

Code-Muster

In diesem Buch lernen ML-Praktiker Techniken und bewährte Methoden kennen, um Erklärbarkeit in ihre Modelle und ML-Lösungen einzubauen. Als Hilfestellung bieten wir Codebeispiele für viele der im Buch besprochenen Techniken. Die Modelle werden mit gängigen Bibliotheken für maschinelles Lernen wie Keras/TensorFlow, PyTorch oder scikit-learn erstellt, und wenn möglich verwenden wir Open-Source-Bibliotheken, um zu zeigen, wie diese Techniken in der Praxis umgesetzt werden. Der gesamte Code, auf den im Buch verwiesen wird, ist Teil unseres GitHub-Repositorys. Wir empfehlen dir dringend, diese Codebeispiele auszuprobieren.

Der Code ist zweitrangig im Vergleich zu den Konzepten und Techniken, die behandelt werden. Unser Ziel war es, dass das Thema und die Prinzipien unabhängig von Änderungen an TensorFlow oder Keras oder einer bestimmten Bibliothek relevant bleiben. Einige der von uns verwendeten Bibliotheken sind vielleicht neuer als andere und werden daher in Zukunft aktualisiert oder verbessert.

Wenn du eine technische Frage oder ein Problem mit den Codebeispielen hast, sende bitte eine E-Mail an

Dieses Buch soll dir helfen, deine Arbeit zu erledigen. Wenn in diesem Buch Beispielcode angeboten wird, darfst du ihn in deinen Programmen und deiner Dokumentation verwenden. Du musst uns nicht um Erlaubnis fragen, es sei denn, du reproduzierst einen großen Teil des Codes. Wenn du zum Beispiel ein Programm schreibst, das mehrere Teile des Codes aus diesem Buch verwendet, brauchst du keine Erlaubnis. Der Verkauf oder die Verbreitung von Beispielen aus O'Reilly-Büchern erfordert jedoch eine Genehmigung. Die Beantwortung einer Frage mit einem Zitat aus diesem Buch und einem Beispielcode erfordert keine Genehmigung. Wenn du einen großen Teil des Beispielcodes aus diesem Buch in die Dokumentation deines Produkts aufnimmst, ist eine Genehmigung erforderlich.

Wir freuen uns über eine Namensnennung, verlangen sie aber in der Regel nicht. Eine Quellenangabe umfasst normalerweise den Titel, den Autor, den Verlag und die ISBN. Zum Beispiel:"Explainable AI for Practitioners " von Michael Munn und David Pitman (O'Reilly). Copyright 2023 Michael Munn, David Pitman, and O'Reilly Media, Inc. 978-1-098-11913-3."

Wenn du der Meinung bist, dass die Verwendung von Code-Beispielen nicht unter die Fair-Use-Regelung oder die oben genannte Erlaubnis fällt, kannst du uns gerne unter kontaktieren

In diesem Buch verwendete Konventionen

In diesem Buch werden die folgenden typografischen Konventionen verwendet:

Kursiv

Weist auf neue Begriffe, URLs, E-Mail-Adressen, Dateinamen und Dateierweiterungen hin.

Constant width

Wird für Programmlistings sowie innerhalb von Absätzen verwendet, um auf Programmelemente wie Variablen- oder Funktionsnamen, Datenbanken, Datentypen, Umgebungsvariablen, Anweisungen und Schlüsselwörter hinzuweisen.

Dieses Element steht für einen allgemeinen Hinweis.

Dieses Element weist auf eine Warnung oder einen Warnhinweis hin.

O'Reilly Online Learning

Seit mehr als 40 Jahren bietet O'Reilly Media Schulungen, Wissen und Einblicke in Technologie und Wirtschaft, um Unternehmen zum Erfolg zu verhelfen.

Unser einzigartiges Netzwerk von Experten und Innovatoren teilt sein Wissen und seine Erfahrung durch Bücher, Artikel und unsere Online-Lernplattform. Die Online-Lernplattform von O'Reilly bietet dir On-Demand-Zugang zu Live-Trainingskursen, ausführlichen Lernpfaden, interaktiven Programmierumgebungen und einer umfangreichen Text- und Videosammlung von O'Reilly und über 200 anderen Verlagen. Weitere Informationen erhältst du unter https://oreilly.com.

Wie du uns kontaktierst

Bitte richte Kommentare und Fragen zu diesem Buch an den Verlag:

  • O'Reilly Media, Inc.
  • 1005 Gravenstein Highway Nord
  • Sebastopol, CA 95472
  • 800-998-9938 (in den Vereinigten Staaten oder Kanada)
  • 707-829-0515 (international oder lokal)
  • 707-829-0104 (Fax)

Wir haben eine Webseite für dieses Buch, auf der wir Errata, Beispiele und zusätzliche Informationen auflisten. Du kannst diese Seite unter https://oreil.ly/explainable-ai aufrufen .

Schreib eine E-Mail an , um Kommentare oder technische Fragen zu diesem Buch zu stellen.

Neuigkeiten und Informationen über unsere Bücher und Kurse findest du unter https://oreilly.com.

Finde uns auf LinkedIn: https://linkedin.com/company/oreilly-media

Folge uns auf Twitter: https://twitter.com/oreillymedia

Schau uns auf YouTube: https://www.youtube.com/oreillymedia

Danksagungen

Ein Buch wie dieses wäre ohne die Großzügigkeit unserer Googler-Kollegen nicht möglich. Besonders dankbar sind wir Takumi Ohiyama, Michael Abel und Xi Cheng für ihre aufmerksame und detaillierte Überprüfung. Ihr Blick für Details und ihr Gespür für Erklärungen haben das gesamte Buch verbessert. Vielen Dank auch an Sheeraz Ahmad, Parker Barnes, Sal Haykal, Ankur Taly, Besim Avci und Mukund Sundararajan für ihr unschätzbares Feedback und ihre Anregungen sowohl zu frühen Versionen dieses Manuskripts als auch zum gesamten Buch. Natürlich sind alle Fehler, die bleiben, vollständig unsere. Wir bedanken uns bei den Teams von Cloud AI Professional Services, PAIR, Responsible AI und dem Google Cloud Advanced Solutions Lab für die aufmerksame Zusammenarbeit. Danke an unsere Manager Xavi Gonzalvo, Michael Riley und Chenyu Zhao, die uns die Freiheit gegeben haben, an diesem Buch zu arbeiten und es zu veröffentlichen.

Unser Dank gilt auch dem O'Reilly-Team für seine unnachahmliche Beratung und sein Feedback. Insbesondere möchten wir Laura Uzcátegui und Nura Kawa für ihre ausführliche technische Prüfung und Carol Keller für ihre sorgfältige Arbeit beim Lektorat danken. Ein besonderer Dank geht an Rita Fernando, die uns von Anfang bis Ende durch den Prozess geführt hat. Danke auch an Rebecca Novak, die uns bei einem frühen Vorschlag für dieses Buch beraten hat, und an unsere Lektoren. Vielen Dank für all eure Hilfe!

David möchte sich bei Emily für ihre großartige Unterstützung und Motivation bedanken, unter anderem für die klaren Erklärungen, was einen überzeugenden Text ausmacht.

Michael: Phil, ich danke dir, dass du meinen nicht ganz so idealen Zeitplan ertragen hast. Ich danke auch meinen Eltern und meiner Familie für ihre ständige Unterstützung bei all meinen Bemühungen und vor allem meinem Bruder Rudy, der mich motiviert hat, als es schwierig war, Motivation zu finden.

Wir spenden 100 % der Tantiemen aus diesem Buch an das Sentencing Project, eine Organisation, die sich für effektive und humane Antworten auf Verbrechen einsetzt, die die Inhaftierung und Kriminalisierung von Jugendlichen und Erwachsenen minimieren, indem sie Rassen-, Ethnien-, Wirtschafts- und Geschlechtergerechtigkeit fördern.

Get Erklärbare KI für Praktiker now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.