Robotergesetze
Die Robotergesetze (englisch Three Laws of Robotics) wurden von Isaac Asimov in seiner Kurzgeschichte Runaround (Astounding, 1942) als „Grundregeln des Roboterdienstes“ erstmals beschrieben.[1]
Allgemeines
Die Asimov’schen Gesetze lauten:[2]
- Ein Roboter darf kein menschliches Wesen (wissentlich[3]) verletzen oder durch Untätigkeit (wissentlich[3]) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Man beachte, dass die Gesetze hierarchisch aufgebaut sind. Sie bilden den Hintergrund der in Ich, der Robot (1950) gesammelten Science-Fiction-Erzählungen und prägen seither die Auffassung, was und wie ein Roboter sein sollte. Die von Asimov beschriebenen Roboter sind in ihrem Verhalten und ihren Entscheidungen an diese Gesetze gebunden.
Zivile Nutzung
Konkrete Schritte zur Programmierung von Industrie- und Haushaltsrobotern können heute daraus nicht abgeleitet werden – hier gelten derweil verschiedene Sicherheitsregeln (Maschinenrichtlinie).
Militärische Nutzung
Roboter im militärischen Bereich (automatische Waffensysteme, Smart Bombs, Drohnen, Kampfroboter) folgen diesen Gesetzen nicht. Siehe auch Sicherheit von Robotiksystemen.
Nulltes Gesetz
In den Romanen Der Aufbruch zu den Sternen und Das galaktische Imperium (OT: Robots and Empire) wurde ergänzend das „Nullte Gesetz“ abgeleitet, und die anderen Drei Gesetze entsprechend modifiziert:
- Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
- Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
- Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
- Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.
Galt in der ersten Version der Asimov’schen Robotergesetze noch der einzelne Mensch als die höchste zu beschützende Instanz, so steht in den neuen vier Robotergesetzen die Menschheit über dem einzelnen Menschen. Besonders hier wird die Konsequenz aus dem hierarchischen Aufbau der Gesetze deutlich, da ein Roboter die Unversehrtheit einer Masse von Menschen derjenigen eines Individuums vorziehen muss. Die Einführung des nullten Gesetzes ist deshalb als kritisch anzusehen, da es Robotern die Möglichkeit gibt, einzelne Menschen absichtlich zu verletzen oder gar zu töten, um die Menschheit zu beschützen. Dies wirft die grundsätzliche Frage auf, inwieweit es Robotern erlaubt sein sollte, Menschen zu schädigen.
Ein solches Gesetz würde ein moralisches Dilemma ähnlich dem Trolley-Problem aufwerfen und würde nach dem Urteil des Bundesverfassungsgerichts zum Luftsicherheitsgesetz 2005 gegen das Grundgesetz für die Bundesrepublik Deutschland verstoßen.
Sicherheit
Scheinen die Gesetze auch klar, so sind sie doch nicht „narrensicher“, insbesondere weil sie vom Menschen eben menschlich und damit unvollständig betrachtet werden. Im Film I, Robot sieht man zum Beispiel, dass die drei Gesetze nicht ausschließen, dass Roboter die Macht übernehmen, um die Menschheit vor sich selbst zu schützen. Dies geschieht, da das sehr hoch entwickelte Roboterhirn V.I.K.I. aus den ursprünglichen drei Gesetzen das nullte Gesetz ableitet, welches nach einiger fast schon philosophischer Überlegung tatsächlich aus den drei Grundgesetzen resultieren kann.
Die Robotergesetze führen, wenn sie nicht in ihrer Gesamtheit betrachtet werden, zu Paradoxien, die in verschiedenen literarischen Werken und in Filmen dargestellt wurden.
Als Rechtsnorm betrachtet, zeigt die dogmatische Auslegung der Robotergesetze, dass ihre Implantierung in entsprechende Einheiten zu nicht auflösbaren Widersprüchen führt.[4]
Neue Gesetze
In der Trilogie um den Roboter Caliban (das Konzept zu den Romanen um Caliban stammt noch von Asimov selbst, wurde jedoch von Roger MacBride Allen umgesetzt) werden die drei Gesetze komplett verworfen und die „neuen Gesetze“ entstehen:
- Ein Roboter darf keinen Menschen verletzen.
- Ein Roboter ist verpflichtet, mit Menschen zusammenzuarbeiten, es sei denn, diese Zusammenarbeit stünde im Widerspruch zum Ersten Gesetz.
- Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht in einen Konflikt mit dem Ersten Gesetz gerät.
- Ein Roboter hat die Freiheit zu tun, was er will, es sei denn, er würde dadurch gegen das Erste, Zweite oder Dritte Gesetz verstoßen.
Caliban selbst ist der Prototyp eines Roboters, der an kein Gesetz gebunden ist.
Trivia
In Anspielung auf die Robotergesetze nach Asimov enthält die robots.txt von last.fm diese Zeilen:[5]
„Disallow: /harming/humans
Disallow: /ignoring/human/orders
Disallow: /harm/to/self“
In der dritten Folge der Fernsehserie Raumpatrouille werden die Roboter zum „Hüter des Gesetzes“ (Erstsendung: 15. Oktober 1966). So übernehmen sie die Herrschaft in einem Bergwerk, um die Menschen nach einem Streit davon abzuhalten, sich weiter selbst zu verletzen (siehe Gesetz 1). Dies ist eine Weiterentwicklung des Plots, der bereits 1941 Asimovs Erzählung Vernunft zugrunde liegt.
Siehe auch
Weblinks
Einzelnachweise
- ↑ badische-zeitung.de, Computer & Medien, 18. Februar 2017, Eva Wolfangel: Wie weit liefern sich Menschen den Computern aus?, 19. Februar 2017
- ↑ Isaac Asimov, Meine Freunde, die Roboter. Heyne, München 1982, S. 67
- ↑ a b Isaac Asimov: The Naked Sun. Doubleday, New York Januar 1975. (engl.)
- ↑ Gunter Laßmann, Asimov Robotergesetze. Was leisten sie wirklich? Heise Medien, Hannover 2017, ISBN 978-3-95788-089-5 (epub)
- ↑ Robots.txt von Last.fm. 6. Dezember 2010 (engl.)