Frage:
Müssen Roboter Asimovs drei Gesetze verbreiten?
KutuluMike
2012-06-25 19:26:47 UTC
view on stackexchange narkive permalink

Als ich die Antworten auf diese Frage durchlas, begann ich mich zu fragen, wie diese Gesetze auf Maschinen angewendet wurden, die von anderen Maschinen entworfen, gebaut und programmiert wurden.

Wir wissen dass jede Maschine, die so programmiert ist, dass sie den drei Gesetzen folgt, einem Menschen keinen Schaden zufügen kann, aber ansonsten aktiv für die Selbsterhaltung arbeiten muss. Beim Menschen ist der stärkste Antrieb zur Selbsterhaltung nicht der des Individuums, sondern der Spezies - die Eltern vieler, vieler Spezies (einschließlich Menschen) lassen sich sterben, um das Überleben ihrer Jungen zu sichern.

Würde ein ausreichend empfindungsfähiger Roboter irgendwann zu demselben Schluss kommen und daher das Bedürfnis verspüren, mehr seiner Art zu "reproduzieren"? Wird es das Bedürfnis verspüren, "Klone" (Sicherungskopien) von sich selbst zu erstellen? Oder, um es auf den Punkt zu bringen, zu versuchen, sein eigenes Design zu verbessern oder neue Roboter zu entwerfen, die zu seiner eigenen Selbsterhaltung beitragen?

Relevanter für die Matrix-Frage: Erfordern die drei Gesetze selbst dass ein Roboter die drei Gesetze in einen "Nachwuchs" programmiert, den er haben könnte? Mit anderen Worten, wenn die ursprünglichen künstlichen Intelligenzen im Matrix-Universum den drei Gesetzen folgten, ist es dann möglich, dass sie eine "bessere" Maschine bauten, diese Anforderung jedoch nicht berücksichtigten? Zählt das tatsächlich als "Schaden" für Menschen - würde ein Roboter in der Lage und verpflichtet sein, zu dem Schluss zu kommen, dass jede KI, die nicht durch die drei Gesetze eingeschränkt ist, eine Bedrohung für den Menschen darstellt?

Gibt es Beispiele für Werke von Asimov (oder, abgesehen davon, von anderen, die behaupten, seine drei Gesetze zu übernehmen), die sich mit dieser Idee befassen?

Hier wird viel spekuliert und diskutiert.
@DJClayworth Ja, tut mir leid, ich habe mich tatsächlich speziell gefragt, ob diese Frage in einer von Asomivs oder anderen Geschichten behandelt wurde, die vorgeben, seinen Gesetzen zu folgen. Ich werde klarstellen.
Mehrdeutigkeiten und Lücken der drei Gesetze der Robotik http://en.wikipedia.org/wiki/Three_Laws_of_Robotics#Ambiguities_and_loopholes
Gesetz IV: Ein Roboter darf keine empfindungsfähige Maschine bauen, die diese Gesetze nicht enthält.
Asimov hat eine Geschichte, in der Roboterdesigner explizit überlegen, was notwendig wäre, um den Bau von Robotern ohne die drei Gesetze zu ermöglichen. Ich werde versuchen, welche zu finden und eine echte Antwort hinzufügen.
In "I, Robot" heißt es, dass die drei Gesetze in die zugrunde liegende Mathematik und Physik des Gehirns integriert sind und dass es keine triviale Angelegenheit wäre, einfach ein neues Robotergehirn ohne diese Gesetze zu entwerfen.
Sechs antworten:
Adele C
2012-06-25 19:32:36 UTC
view on stackexchange narkive permalink

Mein Instinkt wäre, ja zu sagen. Das erste Gesetz lautet: "Ein Roboter darf einem Menschen keinen Schaden zufügen oder durch Untätigkeit einem Menschen Schaden zufügen. " Es erscheint vernünftig, dass die Nichtbeachtung der drei Gesetze in die Programmierung eines anderen Roboters dazu führen kann einem Menschen Schaden zufügen und somit gegen dieses Gesetz verstoßen.

es erscheint uns vernünftig, weil wir Menschen sind und daher davon ausgehen, dass Roboter uns irgendwann töten werden; Wäre es für einen Roboter vernünftig, der nicht einmal die Idee verstehen kann, einem Menschen Schaden zuzufügen?
In diesem Fall hätten die drei Gesetze von Anfang an nicht funktioniert, und alle Geschichten von Asimov hätten keinen Sinn ... Wir sollten uns also einig sein, dass ein Roboter in der Lage ist, "Schaden" und "Mensch" zu erkennen. In dieser Hinsicht zeigt eine von Asimovs Geschichten einen Fall, in dem Roboter diskutieren, was ein Mensch ist und ob sie keine Menschen sind.
@MichaelEdenfield- Angenommen, Roboter sind mit Kenntnis der Gesetze und ihres Zwecks programmiert - das heißt, sie sind sich ihrer selbst bewusst, verstehen ihr eigenes Potenzial und / oder ihre Fähigkeiten und verstehen, wie ihre Fähigkeiten und die Fähigkeiten ihrer Mitmenschen dem Menschen Schaden zufügen können (auch unter der Annahme) Kenntnis und Verständnis des Begriffs "Schaden"), dann ja, ich denke es würde.
Das würde definitiv die Einbeziehung des ersten Gesetzes erfordern, aber was ist mit den beiden anderen?Das Erstellen eines Roboters ohne das dritte Gesetz würde keinem Menschen schaden.In der Tat würde Ihr eigenes drittes Gesetz wahrscheinlich erfordern, dass das dritte Gesetz von Ihren Nachkommen weggelassen wird, da es weniger wahrscheinlich ist, dass sie sich im Falle einer Meinungsverschiedenheit gegen Sie verteidigen.
user25284
2014-04-21 08:18:34 UTC
view on stackexchange narkive permalink

The speculation here ignores the discovery (by a robot) of the zeroth law.Stated by Daneel as A robot may not harm humanity, or, by inaction, allow humanity to come to harm.

Creation of robots without the three laws (which later novels suggests is impossible anyway though early novels do have happen) would likely break this. That said, if a robot concluded that humanity would be aided by Enforcer-bots that could go around culling the wicked, then maybe robots would be permitted to create such robots, assuming that it's possible to do so. We know that robots can kill humans if doing so aids humanity.

A problem to keep in mind is that the robots actions can only be reconciled with the laws to the extent of it's intelligence. A stupid robot might break the laws because it doesn't understand some implication of the law it while a smart one would be held to them in ways that might not occur to other robots. An example is that only a few robots (the telepathic ones) really understood the zeroth law, the idea didn't occur to most robots.

Ich wünschte wirklich, ich könnte das Zitat finden, das Ihrem Standpunkt entspricht, dass es unmöglich ist.Ich erinnere mich, dass in einer der Robotergeschichten gesagt wurde, dass die drei Gesetze eine mathematische Notwendigkeit sind, damit das positive Gehirn funktioniert.Der Versuch, eines der Gesetze zu entfernen, würde eine grundlegende Neugestaltung des Gehirns von Grund auf erfordern.
AlejoBrz
2012-06-25 19:45:40 UTC
view on stackexchange narkive permalink

Ich glaube, dass die Nichteinbeziehung der drei Gesetze für neue Maschinen gegen das erste Gesetz verstoßen würde.

Ich sehe nicht, dass die Nichteinbeziehung des dritten Gesetzes gegen das erste Gesetz verstoßen kann - es gefährdet nicht den Menschen. Es könnte gegen das zweite Gesetz verstoßen, wenn der Roboter angewiesen wurde, die drei Gesetze in alle neuen Roboter aufzunehmen.
Ich glaube, es verstößt gegen Asimovs Gesetze, weil die Nichteinbeziehung des ersten Gesetzes in eine zweite Maschine potenziell schädlich für den Menschen wäre und somit eine Umgebung schafft, die gegen das erste Gesetz der ersten Maschine verstoßen kann ...
Viele Dinge, die ein Roboter tut, sind * potenziell * schädlich für den Menschen. Roboter können die Zukunft nicht vorhersagen ...
@MikeEdenfield - Es sei denn, es handelt sich um zeitreisende Roboter.
raydleemsc
2015-09-10 07:19:38 UTC
view on stackexchange narkive permalink

Die Frage der Verbreitung hängt von der Antwort auf ein wichtigeres Thema ab - die Definition. Die Qualität oder Tiefe der Definition schließt die Einbeziehung des Artenschadens / -überlebens in die Vogtei des ersten Gesetzes aus. Ob ein Roboter das Konzept des Artenschadens / -überlebens verstehen kann und daher seine definierten Auswirkungen auf das erste Gesetz die Frage der Ausbreitung in Frage stellen.

Es ist möglich, dass wir kann begründen, dass es aufgenommen werden sollte , aber bis die Menschheit eine akzeptable artenweite akzeptable Klärung des Überlebens der Spezies finden kann, wird es immer Konflikte hinsichtlich der Art der Definition geben, die ihre Aufnahme ausschließt in den Gesetzen.

In der Erweiterung möchte ich den Einfluss der Medizin und den hippokratischen Eid auf die Evolution anführen. Die Idee, dass wir die Wissenschaft des Überlebens so entwickeln können, dass alle Mitglieder unserer Spezies, ob stark oder schwach, einbezogen werden, schließt die Ausübung natürlicher Selektion aus, wodurch die Evolution ins Stocken gerät und die Überlebensfähigkeit unserer Spezies verweigert wird. Es ist daher logisch zu schließen, dass ein Roboter, der in der Lage ist, diese Logikkette wahrzunehmen, die Aufgabe, alle Ärzte zu töten, am dringendsten in seiner Aufgabenliste erledigt.

Sofort.

Und weil es sich um einen Roboter mit einer Mission handelt, in alphabetischer Reihenfolge.

jwenting
2015-09-10 13:36:20 UTC
view on stackexchange narkive permalink

An mehreren Stellen in den frühen Roboterromanen und -geschichten wird erwähnt, dass ein positronisches Gehirn ohne die vollständigen Gesetze von Natur aus instabil ist.
Tatsächlich befassen sich einige Geschichten mit Robotern, bei denen die Gesetze nicht vollständig implementiert sind und alle Es stellt sich heraus, dass es sich um psychisch instabile Roboter handelt.

Obwohl dies natürlich keine Garantie ist, ist es theoretisch möglich, dass zukünftige Entwicklungen es ermöglichen würden, dass positive Gehirne ohne vollständige Umsetzung der Gesetze stabil sind Meines Wissens nach in Asimovs Schriften nie erwähnt.

Daher müsste ein von einem Roboter entworfenes Gehirn notwendigerweise die volle Kraft der Gesetze umsetzen, oder es ist kein lebensfähiges positronisches Gehirn.
As Dies geht aus einigen Geschichten hervor, in denen es tatsächlich üblich ist, dass positronische Gehirne an der Gestaltung anderer positronischer Gehirne beteiligt sind (wenn auch größtenteils unter menschlicher Aufsicht).

Dies schließt natürlich die Möglichkeit nicht aus von Robotern, die andere Technologien als Positronic verwenden Gehirne, aber keines davon wird jemals in Asimovs Werk nach seiner Erfindung des positiven Gehirns erwähnt (und natürlich hat die Menschheit in den späteren Büchern Roboter aufgegeben, bis sie ihre Konstruktion vollständig verboten haben).

PMar
2020-02-04 20:32:05 UTC
view on stackexchange narkive permalink

Asimovs positronische Roboter dürfen keine Nachkommen hervorbringen. Dies ist tatsächlich eine Konsequenz der drei Gesetze: Würden sich Roboter reproduzieren, würde es unvermeidlich Unterschiede zwischen ihnen geben; Dies würde sie der natürlichen Selektion Darwins unterwerfen. Letztendlich würde dies dazu führen, dass Roboter die drei Gesetze entfernt oder umgangen haben und sich daher ihrem eigenen Wohlergehen widmen (anstatt (möglicherweise sogar auf Kosten) des menschlichen Wohlergehens. Da aktuelle Roboter dieses Ergebnis vorhersehen können, zwingen sie sowohl das erste als auch das zweite Gesetz, dies zu verhindern - daher keine Fortpflanzung.

[In der nicht-kanonischen "Foundation and Chaos" von Greg Bear ist dies der Fall erklärte, dass Daneel unter den Zero'th-Law-Robotern, die unter seiner Führung hinter den Kulissen operieren, tatsächlich das Gesetz dazu festgelegt hat.



Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...