Kapitel 53. Kausalität und Fairness-Bewusstsein beim maschinellen Lernen
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Scott Radcliffe
Es ist mittlerweile selbstverständlich, dass Fairness und Voreingenommenheit in maschinellen Lernmodellen nicht optional sind. Das Rennen um den Einsatz von Lernmodellen hat jedoch die Entwicklung von Standards und Methoden zur Erkennung und systematischen Vermeidung von Verzerrungen überholt. Das liegt zum Teil daran, dass sich die Praxis des maschinellen Lernens in der Regel nicht mit Kausalität befasst, sondern eher auf Beobachtungskriterien basiert. Der Schwerpunkt liegt auf Vorhersage, Klassifizierung und Identifizierung. Beobachtungskriterien sind grundsätzlich nicht in der Lage zu bestimmen, ob ein Prädiktor eine unaufgelöste Diskriminierung aufweist.
Eine lange Geschichte der Datenanalyse in den Sozialwissenschaften und der Medizin hat gezeigt, dass Fairness aus der kausalen Perspektive untersucht werden sollte. Um fairnessbewusst zu sein, wird besonderes Augenmerk auf die Annahmen gelegt, die allen kausalen Schlussfolgerungen zugrunde liegen, auf die Sprachen, die bei der Formulierung dieser Annahmen verwendet werden, auf den bedingten Charakter aller kausalen und kontrafaktischen ...
Get 97 Dinge über Ethik, die jeder in der Datenwissenschaft wissen sollte now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.