Kapitel 4. Ethische Vorsichtsgeschichten: Phrenologie, Eugenik... und Datenwissenschaft?

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Sherrill Hayes

Die Phrenologie ( ), abgeleitet von " phren " für "Geist" und "logos" für "Wissen", ist die Lehre von den Formen und Konturen des Schädels als Indikator für die geistigen Fähigkeiten und Charaktereigenschaften des Menschen. Sie wurde zunächst von Franz Joseph Gall (1758-1828) entwickelt und entwickelte sich im 19. Jahrhundert zu einer international anerkannten Wissenschaft und Praxis. Jahrhundert zu einer international anerkannten Wissenschaft und Praxis. Ein verwandter Wissenschaftszweig, der im 19. und 20. Obwohl diese Praktiken einst wissenschaftlich unterstützt wurden und in der Bevölkerung Anklang fanden, sind beide inzwischen völlig entlarvt. Was haben diese diskreditierten Pseudowissenschaften mit der Ethik der Datenwissenschaft zu tun? Wenn wir die Methoden, Anwendungen und den Zeitgeist ihrer Zeit betrachten, klingen einige unheimliche Echos durch die Zeit, die uns eine warnende Geschichte erzählen.

Was haben Phrenologen und Eugeniker getan?

Phrenologen benutzten wissenschaftliche Instrumente wie Maßbänder und Tasterzirkel, um die Größe und die Konturen der Köpfe von Menschen zu erfassen. Sie glaubten, dass das Gehirn ein Organ ist, das aufgrund natürlicher Veranlagung oder wiederholter Nutzung wächst oder verkümmert und dass die Größe, Form und Beulen des Kopfes einer Person das Wachstum des darunter liegenden Gehirns widerspiegeln. Sie nutzten ihre Messungen dieser Merkmale zusammen mit Verhaltensbeobachtungen, um auf bestimmte Aspekte der Persönlichkeit und des Charakters zu schließen.

Die Eugeniker verwendeten ähnliche Techniken, maßen aber den ganzen Körper und konzentrierten sich vor allem auf die physiologischen Unterschiede. Sie begründeten ihre Arbeit mit einer Art "Sozialdarwinismus" und folgerten daraus, dass diese Messungen auf die Überlegenheit oder Unterlegenheit bestimmter rassischer Merkmale hinwiesen, und sie förderten Verfahren wie die selektive Züchtung zur Verbesserung der Gesundheit der Bevölkerung. Mehr als hundert Jahre lang galten die "Wissenschaften" der Phrenologie und Eugenik als Versuche, das menschliche Verhalten und die physiologischen Unterschiede zu verstehen, zumal sie durch scheinbar unvoreingenommene wissenschaftliche Messungen gestützt wurden.

Was war also das Problem?

Obwohl Phrenologie und Eugenik über genaue Messinstrumente und gut dokumentierte Ergebnisse verfügten, beruhten die Ergebnisse auf falschen Annahmen, schlecht erhobenen Daten und nicht repräsentativen Stichproben. Obwohl die Phrenologen ihre Modelle empirisch erstellten, wurden die zugrunde liegenden geistigen Fähigkeiten, die sie aus diesen Messungen ableiteten, durch die Untersuchung von Freunden gewonnen, von denen sie glaubten, dass sie diese Fähigkeiten besaßen (Zufallsstichproben), und sie wurden an Insassen von Gefängnissen und Irrenanstalten getestet (verzerrte Stichproben). Die Eugeniker waren auch bei den Gruppen, die sie verglichen, sehr wählerisch und nutzten die Instrumente und Ergebnisse vor allem, um die tief verwurzelten Stereotypen und rassistischen Ideologien der damaligen Zeit zu unterstützen (Confirmation Bias). Letztendlich wurde die Eugenik-Forschung zur Grundlage der "Nationalsozialistischen Rassenhygiene" des deutschen Nazi-Regimes, die zum Tod von fast 10 Millionen Menschen führte, die angeblich minderwertig waren. Obwohl wir heute auf diese Methoden zurückblicken und sie kritisieren können, ist es auch leicht nachvollziehbar, dass die Menschen damals an diese Schlussfolgerungen glaubten, die sich in den Mantel der Wissenschaft hüllten.

Was ist mit Data Science?

Data Science ist eine quantitative Wissenschaft, die auf riesigen Mengen kontinuierlich erzeugter Daten basiert, die von komplexen Algorithmen schnell analysiert werden, scheinbar auf Bevölkerungsebene und frei von a priori Annahmen. Es ist leicht zu verstehen, warum sie in Wirtschaft und Gesellschaft immer mehr an Akzeptanz gewinnt. Datenwissenschaftler/innen verbringen viel Zeit damit, Modelle zu entwickeln und Schlussfolgerungen aus scheinbar "natürlich vorkommenden" Phänomenen zu ziehen, die in den meisten Fällen die Spuren sind, die wir in unserem digitalen Leben hinterlassen. Ähnlich wie die Beulen auf unserem Kopf, die Länge unserer Beine oder die Form unserer Nasen sind diese digitalen Spuren Dinge, die uns etwas Wichtiges über uns selbst als Menschen in einer Gesellschaft sagen... oder?

In seinem Buch Everybody Lies zeigt Seth Stephens-Davidowitz überzeugend und fesselnd, wie die Daten von Google Trends Einblicke in ein fast freudianisch anmutendes unterbewusstes menschliches Verhalten bieten.1 Das ist ein Teil der Stärke der Datenwissenschaft - sie kann uns Dinge über uns selbst verraten, die uns vielleicht gar nicht bewusst sind (oder vor denen wir zu viel Angst haben, sie zuzugeben). Andererseits argumentiert Cathy O'Neil in ihrem Buch Weapons of Math Destruction, dass KI und prädiktive Algorithmen nur so gut sind wie die Daten, mit denen sie gefüttert werden, und dass die Ergebnisse dieser scheinbar unvoreingenommenen Algorithmen und Modelle oft nichts anderes sind als eine Wiederholung bestehender sozialer Ungerechtigkeiten.2 Anstatt uns Informationen zu liefern, mit denen wir das Unbekannte vorhersagen können, liefert O'Neil Beispiele dafür, wie datenwissenschaftliche Verfahren diejenigen bestrafen, ausgrenzen und entrechten, die in unserer Gesellschaft ohnehin schon gefährdet sind. Viele andere haben auch die fehlerhaften Annahmen aufgedeckt, die KI-Algorithmen zugrunde liegen, die mehr auf Effizienz als auf Genauigkeit ausgelegt sind; die rassistische und geschlechtsspezifische Voreingenommenheit einiger Gesichtserkennungsalgorithmen; Online-Werbung, die Männer häufiger als Frauen in einkommensstarke Jobs vermittelt; Algorithmen zur Verbrechensvorhersage und Strafzumessung, die Arme und People of Color diskriminieren; die Undurchsichtigkeit des sekundären Datenmarktes, die Menschen auf dem Versicherungs- und Kreditmarkt unfair diskriminiert; und Einstellungsalgorithmen, die gegen den Americans with Disabilities Act verstoßen.

Genau wie bei der Messung der Schädel- oder Oberschenkellänge können Data-Science-Tools zwar genau sein, was sie messen, aber die Schlussfolgerungen, die daraus gezogen werden, sind vielleicht nicht besser als die Gleichsetzung eines vergrößerten Lappens im hinteren Abschnitt 21 mit "Verliebtheit". Wenn Datenwissenschaftler/innen bei der Entwicklung ihrer Daten und Methoden nicht mit Fachleuten zusammenarbeiten, könnten ihre Schlussfolgerungen auf falschen Annahmen oder auf unzureichenden oder verzerrten Daten beruhen. Das Hauptproblem? KI-Algorithmen beinhalten komplexe Mathematik und Computerprogrammierung, die die meisten Menschen nicht verstehen, aber die Menschen vertrauen ihnen, weil "Zahlen unvoreingenommen sind." Aufgrund der Komplexität der datenwissenschaftlichen Methoden ist es oft schwierig, Algorithmen zu hinterfragen, so dass sie in den Mantel der Unsichtbarkeit gehüllt sind. Übermäßiger Glaube an etwas, weil es wissenschaftlich gemacht ist, ist Szientismus, nicht Wissenschaft.

Schlussfolgerungen

Obwohl Organisationen, Berufsverbände, akademische Einrichtungen und sogar politische Gremien versucht haben, ethische Richtlinien (z. B. GDPR und der California Consumer Privacy Act) für die Erhebung und Nutzung von Daten zu schaffen, um die Risiken für Einzelpersonen und geschützte Gruppen zu begrenzen, fallen diese Bemühungen meist in die Kategorie der "reaktiven" Ethik. Die Auswirkungen dieser Bemühungen sind bisher ebenso unklar wie viele der Algorithmen und statistischen Verfahren, die sie zu beeinflussen versuchen.

Es ist unerlässlich, dass Datenwissenschaftler/innen bewusst mit anderen Wissenschaftler/innen zusammenarbeiten, die von ihnen verwendeten Daten prüfen, einen ethischen Kodex entwickeln und offen für Kritik an ihren Methoden sind. Nur so können wir verhindern, dass wir in die gleiche Ecke des Szientismus und der logischen Irrtümer gestellt werden, die andere, weniger strenge wissenschaftliche Bewegungen in der Vergangenheit zu Fall gebracht haben. Andernfalls könnten wir unsere Lehrbücher und gerahmten Datenvisualisierungen in den verstaubten Antiquitätenläden des 22. Jahrhunderts wiederfinden.

1 Seth Stephens-Davidowitz, Jeder lügt: Big Data, New Data, and What the Internet Can Tell Us About Who We Really Are (New York: Dey Street Books, 2017).

2 Cathy O'Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (New York: Crown, 2016). https://weaponsofmathdestructionbook.com.

Get 97 Dinge über Ethik, die jeder in der Datenwissenschaft wissen sollte now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.