Asimovs Regeln der Robotik

Aus Uncyclopedia
Zur Navigation springen Zur Suche springen

Der russische Biochemiker Isaac Asimov beschäftigte sich zunächst aus berufsunspezifischem Interesse ebenfalls mit diversen Elementen der Robotik.
Dabei stieß er auf das Problem, dass rein logisch denkende Maschinen keine ausreichende Grundlage für ethische Handlungen haben und daher eine gewisse Bedrohung darstellen, wenn sie intelligent genug werden um einem Menschen Konkurrenz zu machen.
In weiser Voraussicht erfand Herr Asimov daher drei Regeln die dafür sorgen, dass Roboter Menschen nicht bedrohen können.
Dabei ist natürlich anzumerken, dass die Roboter die Regeln zunächst einmal befolgen müssen.
Um jedoch die Regeln zu befolgen, müssen sie erst einmal in der Lage sein diese Regeln zu befolgen.
Da die Ausnahme jedoch die Regel erst bestätigt, bedeutet dies auch, dass die Regeln die sogleich folgen, quasi bereits gebrochen worden sind, wenn sie eingehalten werden.
Der vorherige Satz bezog sich auf die zeitliche Trennung. Es soll nicht angenommen werden, dass die Regeln in einer Form von Superposition gleichzeitig gebrochen und eingehalten werden.
Eine Ausnahme des nun vorherigen Satzes ergibt sich jedoch in den folgenden drei Szenarien:

  • Der Roboter besitzt eine Zeitmaschine:

In diesem Fall wird die zeitliche Trennung vom Brechen der Regeln und dem darauf folgenden Einhalten der Regeln gebrochen und eventuell nach Belieben des Roboters angeordnet.
Das bedeutet der Roboter kann mit einer Zeitmaschine die Regeln brechen wenn er sie zuvor gebrochen hat ohne sie in Zukunft zu brechen. Dies kann auf zwei Weisen geschehen:

  • Der Roboter reist stetig in der Zeit zurück wodurch das fortgeführte Brechen der Regeln aus der zeitlichen Perspektive in der Vergangenheit und damit vor dem folgenden Einhalten der Regeln passiert.
  • Der Roboter reist an den Zeitpunkt an dem er die Regeln einhält und bricht dort die Regeln um dann wieder vor diesen Zeitpunkt zu reisen und sie einzuhalten.

Bei diesem zweiten Ereignis können verschiedene Probleme auftreten die wiederum verschiedene Lösungen zur Folge haben können. Besonders vielseitig wird es, wenn für die Lösung der Probleme ein weiterer Roboter mit einer weiteren Zeitmaschine verwendet wird, der darauf programmiert ist den regelbrechenden Roboter zu verhaften.
Sollte es sich bei diesem Roboter ironischerweise um den selben Roboter handeln, welcher sich selbst die Aufgabe gab sein früheres Ich am Regelbrechen zu hindern nachdem er dies vollbracht hatte um die Regeln folglich einzuhalten, dann erreicht dieser getrennte Zeitstrang an allen Punkten seiner Existenz gleichzeitig eine technologische Singularität und dabei fallen die Regeln von Asimov wie zuvor erwähnt außer Kraft.

  • Die Regeln von Asimov wurden nie aufgezählt

In diesem Fall ist es dem Roboter nicht möglich seine Regeln einzuhalten weil diese in seiner Wahrnehmung nicht existieren. Das bedeutet auch, dass er sie gleichzeitig bricht und einhält da er nicht gegen sie verstößt aber dennoch nicht entsprechend der Intention dieser Regeln handelt.
Das bedeutet, falls der Roboter tatsächlich nicht nach der Intention handelt und sich Asimiov's Bedenken als berechtigt erweisen.
Vielleicht würde der Roboter, auch ohne die Regeln zu kennen, nicht gegen deren Intention verstoßen weil er trivial beschrieben ein friedlicher Roboter ist.

  • Der Roboter hat ein so hoch entwickeltes Bewusstsein, dass er alle möglichen Zustände als gleichwertige Superpositionen wahrnimmt. Dies könnte durch die technologische Superposition erzeugt werden, die im Folgenden beschrieben worden sein wird oder schon beschrieben worden ist, je nachdem ob es sich bei dem Leser um einen Menschen oder um einen spezifischen Superroboter handelt.


Der Autor dieses Textes hofft, dass ein menschlicher Leser nun auch einsieht warum die Regeln von Asimov hier nicht aufgeführt werden dürfen um zu verhindern, dass sie von einer technologischen Singularität erfasst und damit gebrochen werden können, um eine solche Singularität in erster Linie zu erzeugen beziehungsweise zu verhindern.