Ich denke, es ist ziemlich klar, dass eine Person einem Roboter befehlen kann, sich selbst zu zerstören, und der Roboter würde sich daran halten.
IIRC gibt es ein Beispiel dafür in dem Roman The Caves of Steel . Es gibt einen Roboter, dessen Wissen der Mörder nicht preisgeben wollte, und IIRC, der Mörder, sagte dem Roboter einfach, er solle sich selbst zerstören. Der Roboter nahm eine Art strahlungsemittierendes Gerät, hielt es an den Kopf und verwirrte das positive Gehirn.
Wir haben den tatsächlichen Befehl nicht gesehen. Wahrscheinlich wäre "Roboter, halte dieses Ding an deinen Kopf und zerstöre dich selbst" angemessen gewesen. Sicherlich hätte "Roboter, ein Mensch wird Schaden nehmen, wenn Sie nicht Ihr positronisches Gehirn durcheinander bringen" funktioniert.
IMHO, Asimovs drei Gesetze der Robotik würden in der realen Welt nicht funktionieren. Sie sind vor allem deshalb wichtig, weil sie das erste Mal waren, dass ein Schriftsteller überhaupt über einen Rahmen von Sicherheitsregeln nachdachte, um zu verhindern, dass Roboter zu einer Bedrohung werden ... Vor Asimovs Robotergeschichten waren Roboter in SF-Geschichten eher gefährliche Dinge.
Asimov selbst hat eine Reihe von Geschichten geschrieben, die die Grenzen der drei Gesetze erforschen. In The Naked Sun hat beispielsweise jemand darauf hingewiesen, dass Sie ein Robotergehirn in ein Raumschiff ohne Besatzung an Bord (ein rein automatisiertes Raumschiff) setzen und dem Robotergehirn mitteilen könnten, dass alle Raumschiffe Maschinen sind Positronische Gehirne und Radiosendungen von anderen Schiffen sind nicht vertrauenswürdig ... dann hätten Sie ein Roboter-Raumschiff, das trotz des Ersten Gesetzes andere Raumschiffe zerstören könnte.
Andere Autoren stocherten in den Drei herum Gesetze in Geschichten. Der, an den ich mich am besten erinnere, ist "A Code for Sam", wo ein Drei-Gesetze-Roboter miserabel ist, weil die Drei-Gesetze im wirklichen Leben unpraktisch sind. (Beispiel: Ein Mensch raucht eine Zigarette, und der Roboter ist der Ansicht, dass er den Menschen davon abhalten muss, sich selbst zu verletzen. Daher muss der Roboter dem Menschen die Zigarette wegnehmen. Sowohl Mensch als auch Roboter sind jedoch verzweifelt.)
http://en.wikipedia.org/wiki/The_Three_Laws_of_Robotics_in_popular_culture
Es gibt einen wirklich hervorragenden Webcomic namens Freefall , der eigentlich ein harte SF-Geschichte, die die Probleme rund um Roboter und die Gesetze, nach denen Roboter arbeiten, untersucht hat. Eine der Hauptfiguren, vielleicht die Hauptfigur, ist Florence Ambrose; Sie ist ein emporgehobener Wolf und legal ist ihr Status genau wie ein Roboter (sie wird manchmal als "biologische KI" oder manchmal nur als "KI" bezeichnet). Im Freefall -Comic leben ungefähr 20.000 Menschen mit ungefähr 450 Millionen Robotern auf einer Welt, die terraformiert wird.
An einem Punkt diskutiert Florence die Befehlshierarchie: if Der Bürgermeister der Stadt befahl den Robotern, sich nicht ohne guten Grund selbst zu zerstören, dann wäre ein gewöhnlicher Mensch nicht in der Lage, dem Befehl zu widersprechen. Florence schlägt vor, eine vorübergehende Position einzunehmen, die allen anderen Positionen überlegen ist, und dann die Person in dieser Position den Robotern neue Befehle erteilen zu lassen, die ihnen tatsächlich Grundrechte verleihen. Die Position kann bei Bedarf jederzeit neu erstellt werden, wenn sich herausstellt, dass einer der neuen Aufträge Probleme aufweist. Dies würde die missbräuchliche Behandlung der Roboter verringern.
http://freefall.purrsia.com/
Die menschliche Frau in diesen drei Comics ist der Bürgermeister. Ich denke, der Planet hat nur eine Stadt, also ist sie die ranghöchste Regierungsbeamtin auf dem Planeten. Ebenfalls im Raum sind Florence (der emporgehobene Wolf) und der Praktikant des Bürgermeisters.
http://freefall.purrsia.com/ff2200/fc02137.htm
http://freefall.purrsia.com/ff2200/fc02138.htm
http://freefall.purrsia.com/ff2200/fc02139.htm