Kapitel 65. Modell-gnostische Erklärungen verwenden, um Verzerrungen in Black-Box-Modellen zu finden
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Yiannis Kanellopoulos und Andreas Messalas
Die Notwendigkeit, Licht in die Undurchsichtigkeit von "Blackbox"-Modellen zu bringen, ist offensichtlich: Die Artikel 15 und 22 der Allgemeinen Datenschutzverordnung der EU (2018), die OECD-Grundsätze für künstliche Intelligenz (2019) und der vom US-Senat vorgeschlagene Algorithmic Accountability Act sind einige Beispiele dafür, dass die Interpretierbarkeit von maschinellem Lernen zusammen mit der Rechenschaftspflicht und Fairness von maschinellem Lernen bereits zu einem integralen Merkmal für jede Anwendung geworden ist (oder werden sollte), die automatisierte Entscheidungen trifft.
Da viele Unternehmen verpflichtet sein werden, Erklärungen zu den Entscheidungen ihrer automatisierten Modelle abzugeben, wird es einen großen Bedarf an dritten Organisationen geben, die die Interpretierbarkeit bewerten, da dies eine zusätzliche Ebene der Integrität und Objektivität für den gesamten Prüfungsprozess darstellt. Außerdem werden einige Unternehmen (vor allem ...
Get 97 Dinge über Ethik, die jeder in der Datenwissenschaft wissen sollte now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.