Kapitel 9. Fehlersuche in einem PyTorch Image Classifier
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Schon in den 2010er Jahren, als der Hype noch groß war, bemerkten Forscher/innen des Deep Learning (DL) einige "faszinierende Eigenschaften" ihrer neuen Deep Networks. Die Tatsache, dass ein gutes Modell mit hoher In-silico-Generalisierungsleistung auch leicht von gegnerischen Beispielen überlistet werden kann, ist sowohl verwirrend als auch kontraintuitiv. Ähnliche Fragen wurden von den Autoren in der bahnbrechenden Arbeit"Deep Neural Networks Are Easily Fooled: High Confidence Predictions for Unrecognizable Images" aufgeworfen, als sie sich fragten, wie es möglich war, dass ein tiefes neuronales Netzwerk Bilder als bekannte Objekte klassifizieren konnte, obwohl sie für menschliche Augen völlig unerkennbar waren? Falls du es noch nicht verstanden hast, ist klar geworden, dass DL-Modelle wie alle anderen maschinellen Lernsysteme überprüft und nachgebessert werden müssen, insbesondere für den Einsatz in Hochrisikoszenarien. In Kapitel 7 haben wir einen Klassifikator für Lungenentzündungen trainiert und verschiedene Post-hoc-Erklärungsmethoden angewendet, um die Ergebnisse zusammenzufassen. Wir haben auch die Verbindung zwischen DL-Erklärungstechniken und Fehlersuche angesprochen. In diesem Kapitel machen wir da weiter, wo wir in Kapitel 7 aufgehört haben, und wenden verschiedene Debugging-Techniken ...
Get Maschinelles Lernen für hochriskante Anwendungen now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.