Frage:
Asimovs Roboter und das Trolley-Problem
aschepler
2017-07-17 05:26:10 UTC
view on stackexchange narkive permalink

Das klassische Gedankenexperiment das Trolley-Problem sieht ungefähr so ​​aus:

Ein loser Zugwagen fährt bergab auf fünf Personen zu, die gefesselt und hilflos auf der Strecke vor uns liegen. Sie können unmöglich einen von ihnen rechtzeitig erreichen und befreien, aber in der Nähe befindet sich ein Handwurfhebel. Wenn Sie den Hebel ziehen, wird der Wagen auf eine andere Spur umgeleitet, wodurch die fünf Personen gerettet werden, aber eine sechste Person ist auf der anderen Spur gefesselt. Ist es ethischer, den Hebel zu ziehen, die eine Person zu opfern, um die fünf zu retten, oder nichts zu tun, damit die fünf Menschen getötet werden können?

Stellen Sie sich nun einen typischen positronischen Roboter aus einem Werk von Isaac Asimov vor Mit den Drei Gesetzen, einem Kernbestandteil seines Gehirns, befindet er sich in genau dieser Situation. Würde der Roboter:

  • den Hebel ziehen, da das Mandat, fünf Personen nicht durch Untätigkeit zu verletzen, größer ist als das Mandat, dem einen nicht zu schaden?
  • seitdem nichts tun Das Ziehen des Hebels wäre eine klarere Verletzung des Ersten Gesetzes als Untätigkeit?
  • wird schnell funktionsunfähig und kann eine Verletzung des Ersten Gesetzes auf die eine oder andere Weise nicht vermeiden?
  • verwalten Um den Hebel zu ziehen und dann einzuschmelzen?
  • etwas anderes?

In einigen von Asimovs Werken, die später in der galaktischen Zeitleiste angesiedelt sind, haben einige Roboter gedacht, dass die drei Gesetze implizieren ein Zeroth-Gesetz, um der Menschheit keinen Schaden zuzufügen oder durch Untätigkeit zuzulassen, dass die Menschheit Schaden nimmt. Macht es einen Unterschied, ob der betreffende Roboter dieses Zeroth-Gesetz kennt und / oder daran glaubt?

Alles, was Asimov vernünftigerweise zugeschrieben wird, einschließlich veröffentlichter Werke, Interviews, privater Korrespondenz usw., könnte gute Quellen dafür sein diese Frage. Ich interessiere mich weniger für andere Quellen wie Filme, andere Autoren, die die drei Gesetze oder Variationen davon verwendet haben usw.

Basierend auf [dieser Antwort] (https://scifi.stackexchange.com/a/163663/46611) würde ich sagen, dass der Roboter herunterfahren würde.Aber es scheint wirklich davon abzuhängen, welcher Roboter es gibt, es gab viele Varianten.
In * The Robots of Dawn * gibt es einige relevante Diskussionen, wenn jemand nach den Zitaten suchen möchte.(Für die Aufzeichnung ist die Antwort jedoch, dass der Roboter den Hebel ziehen würde; Untätigkeit wird gegenüber Aktion bevorzugt, aber nur, wenn die Schäden ungefähr gleich sind.)
@HarryJohnston - Der springende Punkt des Trolley-Problems ist, dass die Schäden nicht gleich sind.Die Aktion führt zu einem geringeren Schaden
@Valorum, ja, und deshalb würde der Roboter den Hebel ziehen.
@HarryJohnston - Außer, dass ein Roboter einem Menschen keinen Schaden zufügen kann.Nicht "die geringste Anzahl von Menschen".
@Valorum,, das gilt für die primitiven Roboter in den Kurzgeschichten - was meine ursprüngliche Aussage übertrifft - aber nicht für die in der Elijah Baley-Serie.Der Roboter könnte * nach * dem Ziehen des Hebels einen Ausfall erleiden, aber er * würde * den Hebel ziehen.
@HarryJohnston - Das OP scheint von einem sofort einsatzbereiten Modell zu sprechen, das es seit Hunderten von Jahren nicht mehr gibt, das sich weiterentwickelt und menschlicher wird.
@Valorum, Ich spreche von Standardmodellen, die eher aus Elijahs Zeit stammen als aus Susans.
@HarryJohnston - Roboter, die ein Zeroth-Gesetz entwickelt haben, sind durch die drei Gesetze im Wesentlichen nicht gebunden.Sie können ihre Handlungen immer als Teil des Allgemeinwohls rechtfertigen.
@Valorum, Ich spreche nicht von Zeroth Law-Robotern.Keine Ursache;Wenn es die Zeit erlaubt, ziehe ich die entsprechenden Zitate und poste meine eigene Antwort.
Das Wagenproblem tritt im Film [I, Robot (2004)] (http://www.imdb.com/title/tt0343818/?ref_=nv_sr_1) auf.In einer Rückblende ist Wil Smiths Charakter in einem zerstörten, sinkenden Auto gefangen, und ein junges Mädchen ist in ähnlicher Weise in einem anderen Fahrzeug gefangen.Der Roboter, der nur einen der beiden retten kann, rettet ihn und lässt sie unter der Voraussetzung ertrinken, dass er die größere Überlebenschance hatte.Dies ist wahrscheinlich nicht im Asimov-Kanon, sondern wird von einem Drehbuchautor eingeworfen.Eine zusätzliche Dimension des Problems ist der psychische Schaden (Überlebensschuld), den er verursacht.
Ich erinnere mich vage, wie ich eine Asimov-Geschichte über Roboter an Bord eines Solarkraftwerks gelesen habe, das die Erde umkreist.Ich denke, die Handlung hat sich vielleicht um eine Form des Trolley-Problems gedreht, aber ich kann mich nicht erinnern.Die Geschichte beinhaltete die Aktionen der Robotercrew in Bezug auf die Ausrichtung eines Kraftstrahls auf die Erde oder ähnliches und das ethische Dilemma, das als Folge einer Fehlfunktion oder eines natürlichen Ereignisses entstanden ist.
@AnthonyX, Sie denken an [* Reason *] (https://en.wikipedia.org/wiki/Reason_ (short_story)), aber es gibt kein ethisches Dilemma.
In Robots of Dawn steht (R.) Daneel Olivaw vor der Wahl, 1 von 2 Personen zu verletzen.Da er den Schaden für gleich hält, tut er nichts.Dies scheint zu implizieren, dass er Maßnahmen ergreifen würde, um die Schäden zu minimieren, wenn sie nicht gleich wären.Natürlich ist Daneel kein typischer Roboter.
@mao47 Welches Kapitel war das?Oder welche Szene?
@Gallifreyan war leider ein E-Book aus der Bibliothek, daher kann ich die Seite / das Kapitel nur nachschlagen, wenn ich es wieder ausleihe, sonst hätte ich möglicherweise eine Antwort darauf geschrieben.Ich erinnere mich deutlich daran, wie Daneel es in einem langen Absatz erklärt und selbst hervorgehoben hat, weil ich an das Problem mit dem Wagen gedacht habe.Ich denke, vielleicht war es in Bezug auf Vasilia und Elijah, und möglicherweise war es eher emotionaler als körperlicher Schaden.Aber ich erinnere mich nicht an die Einzelheiten.
Die ** wahre ** Antwort darauf lautet: "Was auch immer der Autor für die Zwecke der Geschichte rechtfertigen kann."Die drei Gesetze sind ein Handlungsinstrument, keine Lösung.Der Grund, warum Azimov so viele Geschichten über sie schrieb, war, die Schwächen, Mängel und Widersprüche der drei Gesetze zu beschreiben, die an der Oberfläche als allumfassend erscheinen.Das Trolley-Problem trat mehrmals auf, wenn auch nicht immer auf offensichtliche Weise.Nehmen Sie einen Roboter, der aufgefordert wird, einige Ressourcen zu holen, die erforderlich sind, um die Station funktionsfähig zu halten, aber nicht weiß, dass die Notwendigkeit sofort besteht ...
Ich habe das Zitat nicht, aber ich bin sicher, dass in den Büchern angegeben ist, dass ** die englische Version der Gesetze eine grobe Annäherung ** darstellt.Die Sorge um die spezifische Definition des ersten Gesetzes ist also nicht unbedingt sinnvoll.Die verschiedenen Generationen von Robotern scheinen unterschiedliche Definitionen dessen zu haben, was Schaden ist, und verbesserte Modelle scheinen den utilitaristischen Ansatz zu verfolgen, das beste Ergebnis zu wählen.
Dies ist keine sehr gute Frage - einfach, weil * die gesamte Natur der Bücher * von Asimov * genau diese Frage * untersucht.Es ist klug zu erkennen, dass dieses Dilemma der springende Punkt der Bücher ist, aber dann ist es der springende Punkt der Bücher!
Sollte sich der Roboter nicht (selbst?) Vor den Wagen werfen, ihn anhalten oder entgleisen und dabei alle 6 Menschen retten?hat keinen Asimov gelesen
Sieben antworten:
Valorum
2017-07-17 05:45:49 UTC
view on stackexchange narkive permalink

Was einen klassischen "Drei Gesetze" -Roboter betrifft, ist die Antwort in der Tat sehr einfach. Wie wir in Lügner! sehen, implodiert ein Roboter, der entweder durch Handlung oder Untätigkeit einem Menschen schadet, einfach mental .

Die tatsächliche Anzahl der geschädigten Menschen ist für die Diskussion völlig irrelevant.

Der Psychologe achtete nicht darauf. "Du musst es ihnen sagen, aber wenn du es tust, tust du weh, also darfst du es nicht. aber wenn du es nicht tust, tust du weh, also musst du; aber ... “
Und Herbie schrie!
Es war wie das Pfeifen eines Piccolo, das um ein Vielfaches vergrößert wurde - schrill und schrill, bis es den Schrecken einer verlorenen Seele auslöste und den Raum mit dem füllte Durchdringung von sich selbst.
Und als es ins Nichts fiel, brach Herbie in einem Haufen bewegungsloser Metalle zusammen.

Im Vergleich dazu hätte ein Zeroeth Law-konformer Roboter kein Problem mit dem Dilemma was auch immer. Ohne weitere Informationen über den relativen Wert der Personen, die vom Wagen heruntergefahren werden, würde einfach das größere Gut (z. B. die geringere Anzahl der getöteten Personen) ausgewählt und damit begonnen.

Das Zeroeth-Gesetz ist nicht notwendig.Als Daneel gebaut wurde, ein Jahrhundert oder länger, bevor er das Zeroeth-Gesetz erfand, waren Roboter bereits in der Lage, den geringeren Schaden zu wählen.Dies wurde in * The Robots of Dawn * behandelt.
@HarryJohnston - Das kam mir immer wie ein Fudge vor.Sie hatten eindeutig ein Niveau an Raffinesse entwickelt, das es ihnen ermöglichte, die Gesetze zu umgehen, anstatt sie einzuhalten.Andrew tat dasselbe in The Positronic Man und entwickelte ein mentales Toolkit, das ihn fast daran hinderte, Menschen zu gehorchen.
Ich denke, die Fähigkeit, den geringeren Schaden zu wählen, wäre für eine gründlich robotisierte Gesellschaft wie Aurora absolut notwendig.Roboter können nicht jedes Mal ausfallen, wenn sie eine triviale Entscheidung treffen müssen.Bei den primitiven Robotern von Susan Calvins Zeit war dies kein so großes Problem, da sie subtilere Schäden nicht verstehen konnten und nur in kontrollierten Umgebungen eingesetzt wurden.
Möglicherweise ist anzumerken, dass die Schwächung des ersten Gesetzes für die Nützlichkeit auch in "Little Lost Robot" auftauchte, wo sie einfach mit "kein Roboter darf einen Menschen verletzen" als erstes Gesetz experimentierten, weil sich die Roboter in Situationen beschädigten, in denen sich Menschen befandengeringfügiger Schaden, der in kleinen Dosen (hier Strahlung) letztendlich nicht schädlich war.
"Flucht!"Erwähnenswert ist auch, dass ein positronisches Gehirn die Gefahr einer Zerstörung riskiert, wenn man nur * hypothetisch * über die Gefahr für den Menschen nachdenkt (und die Gefahr selbst tatsächlich nur vorübergehend ist: Es ist ein Hyperraumsprung, der effektiv bedeutet, dass der Mensch aufhört zu existieren - aus der Sicht des Gehirns ist er tot)einen kurzen Moment).
In I, Robot beschreibt die Hauptfigur ein klassisches Trolley-Problem.Ich denke, es ist klar, dass es teilweise von der Implementierung abhängt, aber der Roboter hatte am Anfang kein Problem damit, die Person auszuwählen, die besser überleben kann.
@HarryJohnston in Spacer-Welten war die Interaktion von Menschen mit anderen Menschen nicht alltäglich, daher kann ich mir vorstellen, dass dieses Problem dort nicht sehr häufig auftrat.
@Nacht, Sie denken an Solaria.Die anderen Spacer-Welten, einschließlich Daneels Heimatwelt Aurora, waren weniger extrem.
@HarryJohnston Ich dachte, alle Spacer-Welten wären bis zu einem gewissen Grad so ... könnte sich falsch erinnern.Dennoch ist es in unserer eigenen Welt selten genug, sich zwischen der Rettung der einen oder anderen Person entscheiden zu müssen.
@Nacht, muss sich entscheiden, ob man das eine oder andere Leben retten will, ist ziemlich selten.Aber Roboter betrachten * jeden * Schaden, wie gering er auch sein mag, als eine Angelegenheit des Ersten Gesetzes.(Natürlich müssen sie in der Lage sein, die Art des Schadens zu verstehen.)
Ich habe in Bezug auf das erste Gesetz keinen Hinweis auf "Handlung oder Untätigkeit" gefunden.Es ist immer Untätigkeit.
Gallifreyan
2017-07-17 17:27:34 UTC
view on stackexchange narkive permalink

Die Kurzgeschichte "Lügner!" wurde als Quelle für die Behauptung angegeben, dass der Roboter nicht in der Lage wäre, Maßnahmen zu ergreifen oder danach auszubrennen. Diese Geschichte wird jedoch in einem späteren Werk erwähnt und in gewissem Sinne widerlegt - Robots of Dawn .

Die relevanten Zitate lauten wie folgt:

Da die Theorie des positronischen Gehirns subtiler geworden ist und die Praxis des Positronic Brain Design komplizierter geworden ist, wurden zunehmend erfolgreiche Systeme entwickelt, bei denen sich alle möglicherweise auftretenden Situationen in Ungleichheit verwandeln, so dass einige Maßnahmen ergriffen werden können Es ist immer darauf zu achten, dass das erste Gesetz eingehalten wird.
Kapitel 4 - "Fastolfe" sub>

Die Roboter haben sich seit den Tagen von erheblich verbessert Susan Calvin - man sollte sich daran erinnern, dass die Geschichten, die sie betreffen, die Geschichten über die Pioniere der Robotik sind, als menschenähnliche Roboter nur geboren und perfektioniert wurden.

In Robots of Dawn Wir haben es mit humaniformen Robotern zu tun, die so hoch entwickelt sind, dass sie sogar alle äußeren menschlichen Eigenschaften aufweisen (einschließlich Genitalien, was ein wichtiges Detail in diesem n ist ovel). Wir werden auch in das Konzept des "mentalen Einfrierens" eingeführt, was Herbie in "Liar!" Passiert ist. Doktor Fastolfe, der führende Experte für Roboter zum Zeitpunkt des Romans, sagt, dass solche Einfrierungen bei modernen Robotern nahezu unmöglich sind, da sie die Dinge nicht nur quantitativ beurteilen (wie es der Roboter aus dem Film getan hat). Sie sind in der Lage, in dem sehr, sehr seltenen Fall genau gleicher Ergebnisse eine Randomisierung durchzuführen.

"Nehmen wir an, die Geschichte über Susan Calvin und den Gedankenleseroboter ist nicht nur eine völlig fiktive Legende. Nehmen wir es ernst. Es würde immer noch keine Parallele zwischen dieser Geschichte und der Jander-Situation geben. Im Fall von Susan Calvin würden wir es mit einem unglaublich primitiven Roboter zu tun haben, der heute nicht einmal den Status eines Spielzeugs erreichen würde. Es könnte sich nur qualitativ mit solchen Angelegenheiten befassen: A schafft Elend; Nicht-A schafft Elend; daher geistiges Einfrieren.

Baley sagte:„ Und Jander? “

„ Jeder moderne Roboter - jeder Roboter des letzten Jahrhunderts - würde wiegen solche Angelegenheiten quantitativ . Welche der beiden Situationen, A oder nicht-A, würde das größte Elend verursachen? Der Roboter würde eine schnelle Entscheidung treffen und sich für ein Minimum an Elend entscheiden. Die Chance, dass er die beiden sich gegenseitig ausschließenden Alternativen beurteilt, um genau die gleichen Mengen an Elend zu erzeugen, ist gering, und selbst wenn sich herausstellen sollte, dass dies der Fall sein sollte, wird der moderne Roboter mit einem Randomisierungsfaktor ausgestattet. Wenn A und nicht-A nach seinem Urteil genau gleich Elendproduzenten sind, wählt er den einen oder anderen auf völlig unvorhersehbare Weise aus und folgt dem dann fraglos. Er geht nicht in ein geistiges Einfrieren. “
Kapitel 7 -" Fastolfe "; Betonung meiner. sub>

Beachten Sie, dass es nicht völlig unmöglich ist, einen modernen Roboter zum mentalen Einfrieren zu bringen, da darauf die gesamte Handlung des Romans basiert. Es ist jedoch erwiesen, dass es die höchste Beherrschung des Innenlebens des positiven Gehirns und der Roboterpsychologie erfordert, wozu nur zwei Personen jemals in der Lage sind.

Der gleiche Roman befasst sich auch mit dem, ohne es zu benennen Zeroth Law.

Offensichtlich Spoiler! sup>

R. Giskard tötet R. Jander, seinen Roboterfreund, um die Menschheit (die Bewohner der Erde) vor einem finsteren Spacer-Komplott zu retten und um Spacer vor der Kreuzung und dem Aussterben in Abgeschiedenheit zu bewahren.

Das Zeroeth-Gesetz ist jedoch eher eine Ausnahme als eine Regel. Nach dem, was ich bisher gelesen habe, ist es nur zweimal vorgekommen. Der Grund - nicht jeder Roboter ist sich der Probleme bewusst, mit denen die Menschheit konfrontiert ist. Man könnte wahrscheinlich spekulieren, dass die Menschheit für sie nur eine Ansammlung von Menschen ist, während es in Wirklichkeit etwas komplizierter ist. Mein Punkt ist, dass dies keine Situation ist, in der ein Roboter das Zeroth-Gesetz aufrufen würde - weil es nicht in sie eingebaut war. Die Maschinen in "The Evitable Conflict" wurden ausdrücklich als Zugang und Kontrolle über alle Ressourcen und Kenntnisse der Menschheit angegeben. Sie konnten das Zeroeth-Gesetz formulieren - das bedeutet nicht, dass jeder Roboter dies kann. Die Charaktere von Robots of Dawn waren ebenfalls außergewöhnlich. Ich würde dieses Gesetz nicht in das Trolley-Problem einbeziehen, aber wenn Sie möchten, gilt das, was ich oben gesagt habe.

Ram
2017-07-17 06:05:42 UTC
view on stackexchange narkive permalink

Am Ende von I haben Robotermaschinen ein Null-Gesetz entwickelt.

Denken Sie eine Weile über die Maschinen nach, Stephen. Sie sind Roboter und folgen dem Ersten Gesetz. Aber die Maschinen arbeiten nicht für einen einzelnen Menschen, sondern für die gesamte Menschheit, so dass das erste Gesetz lautet: „Keine Maschine darf der Menschheit schaden; oder durch Untätigkeit zulassen, dass die Menschheit Schaden nimmt. '

(...)

„Aber du sagst mir, Susan, das Die "Gesellschaft für die Menschheit" hat Recht. und dass die Menschheit in ihrer Zukunft ihr eigenes Mitspracherecht verloren hat . “

„ Es hatte wirklich nie etwas. Es war immer den wirtschaftlichen und soziologischen Kräften ausgeliefert, die es nicht verstand - den Launen des Klimas und dem Schicksal des Krieges. Jetzt verstehen die Maschinen sie; und niemand kann sie aufhalten, da die Maschinen mit ihnen umgehen werden, wie sie mit der Gesellschaft zu tun haben - und dabei die größte Waffe zur Verfügung haben, die absolute Kontrolle über unsere Wirtschaft. “

„Wie schrecklich!“

„Vielleicht wie wunderbar! Denken Sie, dass für alle Zeiten alle Konflikte endlich unvermeidlich sind. Von nun an sind nur noch die Maschinen unvermeidlich! “

Asimov - I Robot" The Evitable Conflict "

In diesem Sinne Die Maschine "bricht" das zweite Gesetz zugunsten der Menschheit. Obwohl ich kein bestimmtes Asimov-Beispiel für das Trolley-Problem für eine Maschine mit dem Zeroeth-Gesetz finden kann, scheint es, dass ein solcher Roboter das erste Gesetz, das der Menschheit zugute kommt, "brechen" könnte / p>

OP fragte nach "* einem typischen positiven Roboter *".Zeroth Law-Roboter scheinen nicht besonders verbreitet oder typisch zu sein.
@Valorum ist ein positronischer Roboter aus einer frühen Asimov-Zeit mit den drei Gesetzen. Natürlich könnte ich die Absicht von OP falsch verstehen
Sie müssen die Geschichte "The Evitable Conflict" nennen.
Vielleicht möchten Sie auch (in der ersten Zeile) darauf hinweisen, dass Sie über das Buch sprechen, nicht über den gleichnamigen Film.
R Dome
2017-07-18 16:09:50 UTC
view on stackexchange narkive permalink

Wenn Sie 3 Gesetze im engeren Sinne einhalten, gibt es kein akzeptables Ergebnis - jedes Ergebnis verstößt entweder gegen die Klausel "darf nicht verletzen" oder "durch Untätigkeit erlauben, Schaden zuzufügen".

Tatsächlich Dies unterstreicht das Problem mit jeder Art von ethischem System, das eine Handlung oder ein Ergebnis für völlig inakzeptabel erklärt. Es kann keine aussagekräftige Anleitung in Situationen geben, in denen alle in Betracht gezogenen Optionen (möglicherweise) zu diesem inakzeptablen Ergebnis führen, wobei der Unterschied nur im Umfang und in der Sicherheit liegt und andere Details. Die gleiche "Division durch Null" kann leicht bei Menschen beobachtet werden, die im Alltag mit dem absoluten "menschlichen Leben alles andere übertrumpfen" und sich dann in einer Situation befinden könnten, in der alle ihre Handlungen mit unterschiedlichem Risiko für andere verbunden sind Leben. Mit Ausnahme des Menschen ist das Ergebnis kein Herunterfahren, sondern das Auslösen verschiedener Abwehrmechanismen (was häufig bedeutet, dass die gewählte Vorgehensweise nicht optimal war, um den Gesamtschaden zu minimieren).

Im Fall von Asimov Roboter nach den 3 Gesetzen ist die Antwort somit klar. Einige der späteren Roboter waren jedoch nur eingeschränkt in der Lage, die Beschränkungen der drei Gesetze zu umgehen, und konnten hier theoretisch die richtige Vorgehensweise wählen. Dies steht jedoch etwas neben der ursprünglichen Frage, da dies nicht mit den drei Gesetzen an sich zusammenhängt, sondern mit der Fähigkeit des einzelnen Roboters, sie zu umgehen.

Hallo R Dome, willkommen bei [fantas.se] und danke für deine Antwort.Darf ich Sie einladen, an der [Tour] teilzunehmen?
BaneStar007
2017-07-17 10:44:02 UTC
view on stackexchange narkive permalink
  1. Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch Schaden nimmt.
  2. ol>

    Untätigkeit, keine Handlung.

    Kann ein Roboter durch Handlung einem Menschen erlauben, Schaden zuzufügen? Ja, im Fall mehrerer Menschen, von denen einige anders sind als andere (dass du auf ihn achtest), ABER dann muss er danach handeln, um diesen Schaden für den einen Menschen zu stoppen, selbst wenn dies dazu führt, dass ein Mensch nicht gehorcht wird oder sich selbst töten. (Umgehung)

    Also, 1. er zieht den Hebel, reduziert die Anzahl der Todesfälle, und 2. wirft sich auf die mathematisch plausibelste Weise in den Zug, um den Zug anzuhalten oder zu entgleisen, um den Schaden zu verringern zu diesem Menschen (oder anderen)

Das Gesetz verhindert im Wesentlichen, dass durch Handlung oder * in * Handlung Schaden verursacht wird.Was Sie vorschlagen, fällt in die erstere Kategorie.
Ich bin mir ziemlich sicher, dass Susan Calvin darüber spricht, wo ein Roboter durch Aktion einen Hebel ziehen könnte, der ein Gewicht auf einen Menschen fallen lässt, mit dem vollen Wissen, dass er dann das Gewicht ergreifen würde, aber nur der zweite Teil bedeutet dasDer Roboter sollte das Gewicht greifen, ohne die zweite Hälfte könnte der Roboter dann anhalten und durch Untätigkeit den Schaden zulassen.Das heißt,Roboter KÖNNEN Aktionen ausführen, die es einem Menschen später ermöglichen, Schaden zu nehmen.
@BaneStar007 Dann könnte der Roboter den Hebel nur ziehen, wenn es ihm möglich wäre, den auftretenden Schaden zu stoppen.
@Banestar - Nur wenn es sowohl die Kapazität als auch die * Absicht * hatte, den Hebel zurück zu ziehen.Roboter entscheiden jedoch nicht über die Anzahl der Opfer.Die Zahl ist entweder 0 (keine) oder 1 (nicht Null).
@Rawling Was es könnte, da es den Hebel später genauso leicht in die andere Richtung drehen könnte.Der zweite Teil ist genauso wichtig wie der erste.Und vergessen wir nicht, dass es sinnlos ist, die englische "Übersetzung" der Gesetze zu "lawyering" - die tatsächlichen Gesetze sind nichts anderes als ihre einfachen englischen Beschreibungen (offensichtlich für jeden, der jemals etwas programmiert hat, insbesondere AI: D).Es handelt sich nicht um eine Reihe von "gesetzlichen Gesetzen", die das Verhalten des Roboters einschränken - es ist ein wesentlicher Bestandteil des gesamten Robotergehirns und es ist zu beachten, dass Sie es nicht entfernen können -, um einen nicht konformen Roboter herzustellen, müssten Sie bei Null anfangen.
Das Beispiel, über das Sie schreiben, stammt aus der Geschichte * Little Lost Robot *, in der ein Roboter modifiziert wurde, um Menschen durch Untätigkeit Schaden zuzufügen.Sie hatten Probleme mit Menschen, die in Strahlungszonen zur Arbeit kamen;Selbst wenn sie eine Zeit lang darin wären, die zu kurz ist, um schädlich zu sein, würden Roboter versuchen, sie wegzunehmen (wobei sie durch die Strahlungsaktivität zerstört würden).Wenn der Roboter verloren ist, erzählen sie Calvin davon, und dann erkennt sie die Gefahr, die Ihr Zitat beschreibt.Es endet nicht gut für den Roboter.Es war eine einzigartige Situation.
Insbesondere dauert es gut zehn oder zwölf Versuche, um herauszufinden, welcher Roboter der modifizierte ist.Es ist eine gute Lektüre, einer meiner Favoriten aus dem Buch I, Robot.Die venezianische Geschichte (die sauren Seen) ist meine zweite.
Während wir verstehen, dass die Regeln mit binär, wahr / falsch (oder vielleicht seinem Javascript wahr / falsch / undefiniert) programmiert sind, verwenden die Bücher zumindest den Wortlaut des Englischen und die Anwaltschaft als Mittel zur Interpretation des Codes: Obwohl ich verstehe, dass wir die Handlung gegen Untätigkeit streiten, denke ich, dass die Regel Handlung ist, die direkt Schaden verursacht, oder Untätigkeit, bei der Schaden stattfinden kann.Die indirekte Handlung wird von der Untätigkeitskomponente abgedeckt, sodass die Handlung, die indirekt zu Schaden führen würde, selbst wenn sie stark befohlen wird.Der Roboter würde unmittelbar nach dem (Realisieren) Umkehren oder Stoppen der Aktion, die Schaden anrichtet.
Die George 9 & George 10s haben die Fähigkeit zu bestimmen, ob 5 Todesfälle gegen 1 Tod eintreten sollten (dass du auf ihn achtest). Der Roboter friert nicht ein, sondern ergreift stattdessen (noch) eine Aktion, um 5 Todesfälle zu verhindernkann indirekt 1 Tod verursachen) würde dann, sobald Maßnahmen ergriffen wurden, versuchen, diesen Schaden ebenfalls zu verhindern.
Die Gesetze sind vage geschrieben, aber es war eindeutig nicht die Aktion des Roboters, die den Schaden verursachte, sondern der Dummkopf, der die Wagen die Gleise hinunter rennen ließ.
jmmut
2017-07-17 20:42:58 UTC
view on stackexchange narkive permalink

Ich erinnere mich an eine andere Geschichte, Lost Little Robot (danke @CMS), in der ... (kleine Spoiler)

Ein erfahrener Roboter versucht es um zu entkommen und sich in einem anderen Team unerfahrener Roboter zu verstecken, versuchen die Menschen herauszufinden, welcher der abtrünnige Roboter ist.

Die Handlung ist für die Diskussion nicht wichtig, aber ein Teil zeigt das Gegebene Eine hypothetische Situation, in der ein Mensch sterben wird (egal was der Roboter tut) und der Roboter auch stirbt, wenn er versucht, den Menschen zu retten. Der Roboter bleibt still und akzeptiert den Tod des Menschen mit dem Argument, dass wenn Der Roboter überlebt, hat die Chance, in Zukunft mehr Menschen zu retten und das Gleichgewicht der geretteten Menschen positiv zu halten.

Ich bin mir ziemlich sicher, dass der Roboter am Leben bleiben wird, um dem 3. Gesetz zu gehorchen und nicht weiterhin die Chance zu haben, Menschen zu retten.
Das ist _Lost Little Robot_, bei dem der zweite Teil des ersten Gesetzes entfernt wurde, wie oben beschrieben. >!Der betreffende Roboter fragt einen Menschen nach dem Weg.Der Mensch, der von anderen wichtigeren Themen abgelenkt ist, schnappt nach dem Roboter: "Geh verloren!".Der Roboter nimmt diese Anweisung wörtlich und nicht als "Ich bin beschäftigt, geh für 1 Stunde weg, dann komm zurück und frag mich noch einmal".
@CSM Oh, richtig, aber ich denke, diese Antwort ist immer noch relevant, weil die anderen nicht modifizierten Roboter mit demselben Argument antworten (gehorche dem 3. Gesetz / rette zukünftige Menschen).
dmajirb
2017-07-18 15:30:15 UTC
view on stackexchange narkive permalink

Dies ist ein klares Beispiel dafür, wie unzureichend "Asimovs drei Gesetze" sind, paradoxen Kollisionen unterliegen und in "Asimovs vier Gesetze" geändert werden sollten. Das wichtigste Gesetz muss immer lauten: "Ein Roboter darf einen Menschen nicht verletzen." Dies liegt daran, dass allgemeine Roboter (dh nicht-chirurgische Roboter, bei denen der Nutzen einen berechneten Grad an "Schaden" erfordert) NIEMALS die Rationalisierung der Schädigung eines Menschen rationalisieren dürfen, WEIL sie in der Lage sein werden, sich mit Logik auseinanderzusetzen, die über uns Menschen hinausgeht, dass könnte es ihnen ermöglichen, zu entdecken und / oder zu berechnen, dass sie uns helfen, indem sie uns töten. Vielleicht [hypothetisch] entdecken sie, dass der menschliche Tod die Gesamtenergie von Übergängen in alternative Dimensionen (oder einen solchen umwerfenden Mist) erhöht, messen dann unsere Gesundheitsqualität und urteilen, dass es besser für uns ist, zu sterben als zu sein ältere Menschen, da dies als ein Zustand des Schadens angesehen würde [wieder nur eine Hypothese, wer weiß, was die Roboter sich einfallen lassen könnten, der Punkt ist, dass wir es nicht tun!]. Um dies zu verhindern, ändern Sie die Regeln wie folgt: (1) Ein Roboter darf einen Menschen nicht verletzen. (2) Ein Roboter darf durch Handlung oder Untätigkeit nicht zulassen, dass ein Mensch Schaden nimmt, es sei denn, solche Befehle würden dem Ersten Gesetz widersprechen. (3) Ein Roboter muss die ihm von Menschen erteilten Befehle befolgen, es sei denn, dies ist der Fall Befehle würden mit dem ersten oder zweiten Gesetz in Konflikt stehen. (4) Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit dem ersten, zweiten oder dritten Gesetz in Konflikt steht.

Wie antwortet diese Frage, welches Leben sie beenden möchte?Dies scheint nur ein zufälliger Kommentar zu den Asimov-Gesetzen zu sein.Bitte geben Sie keine Inhalte an, die die Frage direkt beantworten, da dies kein Forum, sondern eine Q & A-Site ist.Schauen Sie sich unsere [Tour] und [Antwort] an.


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...