Kapitel 70. Auf dem Weg zur algorithmischen Bescheidenheit

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Marc Faddoul

Die Angeklagte #3172 ist eine unverheiratete 22-jährige Frau. Sie hat bereits zwei Monate wegen Marihuanahandels im Gefängnis gesessen und wurde gerade wegen einer gewalttätigen Auseinandersetzung mit ihrem Partner in der Öffentlichkeit verhaftet. Wird die Angeklagte in den drei Monaten vor der Verhandlung ein Gewaltverbrechen begehen? Um eine solche Frage zu beantworten, verwenden viele amerikanische Gerichtsbarkeiten algorithmische Systeme, die als Risikobewertungsinstrumente vor der Verhandlung bekannt sind. Betrachten wir eines der gängigsten dieser Instrumente, das Public Safety Assessment (PSA).1

Wenn die PSA ein hohes Risiko sieht, setzt sie eine rote Flagge und schickt den Beschuldigten automatisch in Haft, ohne dass der Richter die Vorhersage der Maschine anfechten kann. Es steht viel auf dem Spiel, denn die Untersuchungshaft hat oft verheerende Folgen für die Arbeitsplatz- und Wohnungssicherheit der Angeklagten, auch für diejenigen, deren Unschuld später im Prozess bewiesen wird. Tragischerweise sind 97% dieser lebenszerstörenden algorithmischen Warnmeldungen in Wirklichkeit Fehlalarme.2 Mit anderen ...

Get 97 Dinge über Ethik, die jeder in der Datenwissenschaft wissen sollte now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.