Kapitel 6. Regeln und Rationalität
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Christof Wolf Brenner
In Isaac Asimovs berühmten Science-Fiction-Geschichten steht eine hierarchische Reihe von Gesetzen im Mittelpunkt, die das ethische Verhalten von künstlichen moralischen Agenten sicherstellen. Diese Roboter - teils Computer, teils Maschine - können komplexe Aufgaben effizient erledigen, für die sonst ein menschlicher Verstand nötig wäre.
Asimov argumentiert, dass sein Regelwerk die einzige geeignete Grundlage für die Interaktion zwischen rationalen Menschen und Robotern ist, die sich anpassen und flexibel ihren eigenen Handlungsweg wählen. Auch heute noch, fast 80 Jahre nach der ersten Fassung der Gesetze aus dem Jahr 1942, argumentieren eingefleischte Fans, dass Asimovs Gesetze ausreichen, um moralische Entscheidungen zu treffen. Betrachtet man jedoch das Regelwerk, das Asimov 1985 fertiggestellt hat, wird klar, dass diese Gesetze, wenn man sie ausschließlich anwendet, nicht unbedingt zu dem führen, was wir "gute Entscheidungen" nennen würden:
- Zeroth Law
- Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass die Menschheit zu Schaden kommt.
- Erstes Gesetz
- Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit ...
Get 97 Dinge über Ethik, die jeder in der Datenwissenschaft wissen sollte now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.