Kapitel 7. Erklärung eines PyTorch Image Classifier

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

In Kapitel 6 ging es um erklärbare Modelle und Post-hoc-Erklärungen für Modelle, die auf tabellarischen Daten trainiert wurden. In diesem Kapitel werden wir dieselben Konzepte im Zusammenhang mit Deep Learning (DL)-Modellen diskutieren, die auf unstrukturierten Daten trainiert werden, wobei der Schwerpunkt auf Bilddaten liegt. Code-Beispiele für das Kapitel sind online verfügbar. Erinnere dich daran, dass in Kapitel 2 die Konzepte der erklärbaren Modelle und der Post-Hoc-Erklärung vorgestellt werden.

Wir beginnen dieses Kapitel mit einer Einführung in den hypothetischen Anwendungsfall, der in diesem Kapitel durch technische Beispiele demonstriert wird. Dann gehen wir ähnlich vor wie in Kapitel 6. Zunächst werden wir eine Auffrischung des Konzepts für erklärbare Modelle und Methoden zur Merkmalszuweisung für tiefe neuronale Netze vornehmen und uns dabei auf störungs- und gradientenbasierte Erklärungsmethoden konzentrieren. Außerdem setzen wir den Faden aus Kapitel 6 fort, indem wir erläutern, wie Erklärungsmethoden bei der Fehlersuche in Modellen eingesetzt werden können - ein Thema, das wir in den Kapiteln 8 und 9 noch weiter vertiefen werden.

Als Nächstes werden wir ausführlicher auf inhärent erklärbare Modelle eingehen. Wir stellen einen kurzen Abschnitt über erklärbare DL-Modelle vor, in der ...

Get Maschinelles Lernen für hochriskante Anwendungen now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.