Kapitel 6. Regeln und Rationalität

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Christof Wolf Brenner

In Isaac Asimovs berühmten Science-Fiction-Geschichten steht eine hierarchische Reihe von Gesetzen im Mittelpunkt, die das ethische Verhalten von künstlichen moralischen Agenten sicherstellen. Diese Roboter - teils Computer, teils Maschine - können komplexe Aufgaben effizient erledigen, für die sonst ein menschlicher Verstand nötig wäre.

Asimov argumentiert, dass sein Regelwerk die einzige geeignete Grundlage für die Interaktion zwischen rationalen Menschen und Robotern ist, die sich anpassen und flexibel ihren eigenen Handlungsweg wählen. Auch heute noch, fast 80 Jahre nach der ersten Fassung der Gesetze aus dem Jahr 1942, argumentieren eingefleischte Fans, dass Asimovs Gesetze ausreichen, um moralische Entscheidungen zu treffen. Betrachtet man jedoch das Regelwerk, das Asimov 1985 fertiggestellt hat, wird klar, dass diese Gesetze, wenn man sie ausschließlich anwendet, nicht unbedingt zu dem führen, was wir "gute Entscheidungen" nennen würden:

Zeroth Law
Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass die Menschheit zu Schaden kommt.
Erstes Gesetz
Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit ...

Get 97 Dinge über Ethik, die jeder in der Datenwissenschaft wissen sollte now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.