Kapitel 4. Erklärbarkeit für Bilddaten
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Die in den 1980er Jahren eingeführten Convolutional Neural Networks (CNNs) blieben wie die DNNs bis zum Aufkommen der modernen ML unbenutzt und wurden dann schnell zum Rückgrat moderner Lösungen für Computer Vision Probleme. Seitdem haben Deep-Learning-Modelle, die auf CNNs basieren, bei vielen Computer-Vision-Aufgaben - von der Bildklassifizierung und der semantischen Segmentierung bis hin zu Bildunterschriften und der Beantwortung visueller Fragen - einen beispiellosen Durchbruch erzielt und dabei manchmal fast menschliche Leistungen erreicht. Heutzutage werden hochentwickelte Computer-Vision-Modelle eingesetzt, um intelligente Städte zu planen, die Entwicklung von Vieh und Pflanzen zu überwachen, selbstfahrende Autos zu bauen oder Augenkrankheiten und Lungenkrebs zu erkennen.
Da die Zahl dieser intelligenten Systeme, die sich auf Bildmodelle stützen, immer weiter wächst, ist die Rolle der Erklärbarkeit bei der Analyse und dem Verständnis dieser Systeme wichtiger denn je geworden. Wenn diese hochkomplexen Systeme fehlschlagen, geschieht dies leider oft ohne Vorwarnung oder Erklärung und hat manchmal bedauerliche Folgen. Techniken der erklärenden KI (Explainability AI, XAI) sind unerlässlich, um Vertrauen zu schaffen, nicht nur bei den Nutzern dieser Systeme, sondern vor allem bei den Praktikern, die diese ...