Frage:
Kannst du meinem Roboter sagen, er soll sich selbst töten? (Drei Gesetze)
kojiro
2013-09-17 18:58:28 UTC
view on stackexchange narkive permalink

Was kann in den Welten von Asimovs Robotern verhindern, dass ein Haufen Vandalenmenschen herumläuft und Robotern sagt, sie sollen sich selbst zerstören? Nach dem zweiten Gesetz müssten sie gehorchen. Hier ist eine Auffrischung der Gesetze, aus Wikipedia kopiert:

  1. Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch Schaden nimmt.
  2. Ein Roboter muss die ihm von Menschen erteilten Befehle befolgen, es sei denn, solche Befehle würden dem Ersten Gesetz widersprechen.
  3. Ein Roboter muss seine eigene Existenz schützen, solange ein solcher Schutz besteht widerspricht nicht dem ersten oder zweiten Gesetz.
  4. ol>

    Selbst wenn Sie annehmen, dass ein Roboter von einem menschlichen nicht angewiesen wird, sich selbst zu zerstören (z. B. von einem Vorwärts-) denkender Ingenieur in der Fabrik)…

    Roboter, nehmen Sie an, dass es einem Menschen oder Menschen schaden wird, wenn Sie sich willkürlich aus keinem anderen Grund zerstören, als wenn Sie dazu aufgefordert werden.

    … würde das nicht so ziemlich ein implizites Gesetz zwischen 2 und 3 darstellen?

Ich glaube nicht, dass die CIA das Memo bekommen hat.
@Chloe: Sie haben dies wahrscheinlich als Verweis auf http://en.wikipedia.org/wiki/Unmanned_aerial_vehicle gemeint ... aber dies ist besonders relevant für die Frage http://en.wikipedia.org/wiki/Stuxnet
Gemeinsamer Anstand?
Ich erinnere mich an eine Asimov-Geschichte, in der Menschen Roboter "töteten", indem sie ihnen widersprüchliche Befehle erteilten, wodurch sich ihr einfaches Gehirn zusammenzog und ins Koma fiel.Bei komplexeren Robotern funktionierte es nicht, weil sie die Intelligenz hatten, die Natur des Widerspruchs zu verstehen und ihn zu lösen.
Fünfzehn antworten:
DJClayworth
2013-09-17 19:11:58 UTC
view on stackexchange narkive permalink

In der Geschichte Runaround zeigt Asimov deutlich, dass die drei Gesetze kein rein boolesches Logiksystem sind. In dieser Geschichte ist die SPD verwirrt, weil er ein Gleichgewicht zwischen den beiden "Potentialen" findet: eines aus der beiläufig festgelegten Reihenfolge, essentielle Mineralien zu holen (zweites Gesetz), eines aus dem "dritten Gesetz", um seine Existenz zu schützen, seit dem Der Bereich, in dem sich die Mineralien befinden, ist für ihn gefährlich. Das Potenzial des zweiten Gesetzes ist schwach (weil der Befehl beiläufig erteilt wurde) und das Potenzial des dritten Gesetzes wurde erhöht, da Speedy ein extrem teurer Roboter ist. Dies lässt uns glauben, dass die Gesetze keine festen booleschen Bedingungen sind, sondern ein gewichtetes Gleichgewicht der Prioritäten.

Die wahrscheinliche Antwort auf Ihre Frage lautet daher, dass dies von den Umständen abhängt. Eine beiläufige Anweisung von jemandem, den der Roboter nicht kannte, könnte ignoriert werden. Eine zwangsweise erteilte Anweisung von einer autorisierten Person kann befolgt werden.

Auch früher gegebene Befehle haben ein stärkeres Potenzial als später gegebene Befehle
Klingt nach einem "Fuzzy-Logik" -System, bei dem Sie Werte von 0% bis 100% zuweisen (vollständig aus oder falsch bis vollständig wahr).
nik
2013-09-17 19:34:41 UTC
view on stackexchange narkive permalink

Der Wikipedia-Artikel besagt, dass

Asimov selbst in verschiedenen Büchern und Kurzgeschichten geringfügige Änderungen an den ersten drei vorgenommen hat, um die Interaktion von Robotern mit Menschen und untereinander weiterzuentwickeln. In späteren Fiktionen, in denen Roboter die Verantwortung für die Regierung ganzer Planeten und menschlicher Zivilisationen übernommen hatten

Allerdings ist Ihre Denial-of-Service -Angriffsidee interessant und würde es tun Seien Sie nützlich, wenn Sie daran denken, dass autonome Systeme heute oder im fiktiven Kontext entworfen werden, wenn Sie Handlungsstrukturen schreiben, die für aktuelle Ideen relevant sind.

Dieses Thema wurde in der Robotik untersucht - Sie ' Ich finde diesen Artikel auf space.com interessant zu lesen:

Die Robotikgesetze von Science Fiction brauchen einen Reality Check

von Jeremy Hsu, Special to SPACE. com - 19. August 2009.

Bezieht sich auf David Woods, einen Systemingenieur an der Ohio State University.

Woods arbeitete mit Robin Murphy, einem Rettungsroboter, zusammen Experte an der Texas A&M University, um drei Gesetze zu erstellen, die Menschen als intelligente, verantwortungsbewusste Erwachsene in der Roboter-Mensch-Beziehung anerkennen. Ihr erstes Gesetz besagt, dass Menschen Roboter möglicherweise nicht ohne ein Arbeitssystem einsetzen, das den höchsten rechtlichen und professionellen Standards für Sicherheit und Ethik entspricht. Ein zweites überarbeitetes Gesetz schreibt vor, dass Roboter entsprechend ihrer Rolle auf Menschen reagieren müssen, und geht davon aus, dass Roboter so konzipiert sind, dass sie auf bestimmte Befehle einer begrenzten Anzahl von Menschen reagieren.

Das dritte überarbeitete Gesetz sieht vor, dass Roboter genug haben Autonomie zum Schutz ihrer eigenen Existenz, solange dieser Schutz nicht im Widerspruch zu den ersten beiden Gesetzen steht und eine reibungslose Übertragung der Kontrolle zwischen Mensch und Roboter ermöglicht. Das bedeutet, dass ein Marsrover automatisch wissen sollte, dass er nicht von einer Klippe fahren soll, es sei denn, menschliche Bediener weisen ihn ausdrücklich an, dies zu tun.

Interessant. Es ist sehr bezeichnend, dass die überarbeiteten Gesetze das ausdrückliche Verbot der Schädigung von Menschen aufheben. Durch die Behauptung, dass Menschen Roboter einsetzen müssen, die "den höchsten gesetzlichen und professionellen Sicherheits- und Ethikstandards" entsprechen, lassen die überarbeiteten Gesetze die Tür für Militärroboter offen (ich bin sicher, dass Militärorganisationen auf der ganzen Welt zumindest einige ihrer Waffen als ethisch betrachten) ").
@AndresF.Wir fanden das erste Gesetz, wie Asimov es schrieb, absolut nicht umsetzbar, ohne zuerst eine starke KI zu lösen.Wir besitzen keine starke KI.
@Joshua Was ...?Wer ist "wir"?Asimovs Geschichten setzen bereits eine Art KI voraus.Und wie hängt Ihr Kommentar mit dieser Antwort oder meinem eigenen Kommentar zusammen?
@AndresF: Wir, die wir uns überlegen mussten, wie wir sie wirklich bauen können.
@Joshua Also bauen "wir" - was "Sie" bedeutet - Roboter und finden die drei Gesetze unpraktisch?Äh ... sicher.Ist dir bewusst, dass du auf einer Scifi-Website bist?Das ist so, als würdest du mir sagen, dass du Psykohistorie (oder mentale Kräfte oder schneller als leichte Reisen) ausprobiert hast und es "unpraktisch" fandest.Äh.Warum sagst du mir das relevant?
@AndresF.Ist Ihnen bewusst, dass diese "überarbeiteten Gesetze" aus dem wirklichen Leben stammen, nicht aus einer Science-Fiction-Geschichte?
@AdmiralJota ja und?Ich kommentierte die Ethik der Gesetze aus dem SPACE.com-Artikel, als ob sie "echt" wären. Als der Kommentator einen Unsinn über Asimov sagte, erinnerte ich ihn daran, dass Asimovs Geschichten Fiktion sind.Und dein Punkt ist ...?
@AndresF.Sie kommentieren, dass die "echte" Version der 3 Gesetze das Bit "Menschen keinen Schaden zufügen" entfernt.Joshua kommentiert, dass dies daran liegt, dass "wir" (d. H. Reale lebende Menschen) noch keine starke KI haben, um ein derart schlecht definiertes Gesetz zu bewerten.Sie antworten dann, dass "aber Asimovs Geschichten KI enthalten".Der Kommentator sagte nichts über Asimov, er qualifizierte, warum die überarbeiteten Versionen notwendig sein würden, um Asimovs Versionen für AI auf unserem ** aktuellen Entwicklungsstand ** zu ersetzen.
@chronocidal Die Person, auf die ich geantwortet habe, ist ein zufälliger Niemand, kein Fachexperte (in KI), daher interessiert mich nicht, was er für möglich hält oder nicht.Was er schrieb, ist sowieso meistens keine Folge;Eine starke KI ist nicht erforderlich, um eine Art Sicherheit gegen die Verletzung von Menschen zu gewährleisten (nicht einverstanden? Beweisen Sie es ... aber nicht hier).Er scheint an einer Diskussion über die reale Welt interessiert zu sein, und dies ist nicht der Ort dafür.Darüber hinaus ist eine starke KI in Asimovs Geschichten (die einzige Diskussion, die hier zum Thema gehört) eine Selbstverständlichkeit, daher ist dies kein Thema.
@AndresF.Asimov * selbst * weist darauf hin, dass "ein Roboter nicht durch Handlung oder Untätigkeit zulassen darf, dass ein Mensch Schaden nimmt", ist in mehreren seiner Arbeiten eine sehr wollige / schlecht definierte Regel.Der Artikel selbst zitiert mehrere Experten in der KI-Entwicklung, die im Wesentlichen den gleichen Punkt (inkl. NASA) darüber machen, wie wir das noch nicht können.Er antwortete auch auf ** Ihre ** Diskussion über die reale Anwendung, also steigen Sie von Ihrem hohen Pferd und * übernehmen Sie Verantwortung * (was der ** Punkt ** des 'überarbeiteten' ersten Gesetzes war - die KI zu zwingenEntwickler übernehmen die Verantwortung für die Aktionen der Roboter, nicht nur für die Ingenieure.)
@Chronocidal Dass Asimovs Regel schlecht definiert ist, ist ein Schlüsselaspekt seiner Werke, was für ein interessantes Drama sorgt.Der Hauptaspekt der Regel (Menschen keinen Schaden zufügen) ist jedoch etwas, an das Asimov glaubte, unabhängig von der Formulierung.Beachten Sie, dass in den überarbeiteten Regeln der Schlüsselaspekt "Menschen sind die verantwortliche Partei bei Mensch-Roboter-Interaktionen" ist (nicht der genaue Wortlaut).So wie "Menschen Roboter einsetzen müssen [...]", hätten sie hinzufügen können "Menschen dürfen Roboter NICHT für Aufgaben einsetzen, die andere Menschen verletzen sollen, wie z. B. Militärdrohnen".Sie haben dies * verdächtig * ausgelassen, und Sie werden feststellen, dass es wenig mit KI zu tun hat.
@Chronocidal Ich habe auf einen etwas vom Thema abweichenden Teil der Antwort geantwortet.Vielleicht hätte ich das nicht tun sollen.Da ich kein Roboter - Wortspiel beabsichtigt - oder ein Anwalt für Regeln bin, habe ich einen Teil der Antwort kommentiert, der nicht zum Thema gehörte.Es scheint für diese Site unangemessen zu sein, ein völlig unkonventionelles Gespräch darüber zu führen, wie es Joshua (und jetzt Sie) tun.
SztupY
2013-09-17 23:16:03 UTC
view on stackexchange narkive permalink

Einige der im Universum angesiedelten Geschichten behandeln diesen Fall:

  1. In Runaround gibt es einen Konflikt zwischen dem zweiten und dritten Gesetz (überprüfen Sie das Antwort von DJClajworth)

  2. Im Zweihundertjährigen Mann / Der Positronische Mann ist eines der Elemente der Handlung, dass Menschen befehle dem Protagonisten, sich zu zerstückeln, was er tun muss.

  3. In der zweiten Robotertrilogie ( Caliban , Inferno und Aurora ), das nicht von Asmiov geschrieben wurde. Einer der Hauptpunkte in der Geschichte ist, dass jeder fähige Mann einen Roboter bitten kann, sich selbst zu zerstören, und das macht einen Wissenschaftler dazu, ein neues Set zu erstellen von Gesetzen, die die Roboter eher zu einem Verbündeten als zu einem Sklaven machen.

  4. ol>
Warten Sie, zweihundertjähriger Mann ist von Asimov? Kein Wunder, dass mir dieser Film so gut gefallen hat.
@MikeBrown Ich vermute, er spricht über die Kurzgeschichte. Der Film basiert lose auf Asimov.
@MikeBrown Es gibt eine Kurzgeschichte namens The Bicentennial Man, die später von Robert Silverberg (gemeinsam mit Asimov verfasst) in einen ganzen Roman namens The Positronic Man übernommen wurde. Der Film (genannt The Bicentennial Man) basierte hauptsächlich auf letzterer Arbeit.
@SztupY: Wenn Sie mit "meistens" "locker" meinen, dann ja. Es war nicht so sehr eine "irgendwo Isaac Asimov in seinem Grab herumrollende" Metzgerei wie der "I, Robot" -Film, aber es war immer noch ziemlich weit von der ursprünglichen Geschichte entfernt ...
MPeti
2014-02-08 05:35:00 UTC
view on stackexchange narkive permalink

Ein bisschen spät, aber ich habe gerade diesen sehr relevanten Teil aus The Robots of Dawn (Kapitel Daneel) gelesen. Elijah Baley schlägt vor, die Selbstzerstörung anzuordnen, um Daneel einen "Robotermord" zuzufügen. Seine Reaktion:

Auf Aurora - oder auf einer der Spacer-Welten - werden Roboter höher angesehen als auf der Erde und sind im Allgemeinen komplexer, vielseitiger und wertvoller. Das dritte Gesetz ist im Vergleich zum zweiten Gesetz über Abstandswelten deutlich stärker als auf der Erde. Ein Befehl zur Selbstzerstörung würde in Frage gestellt, und es müsste einen wirklich legitimen Grund dafür geben - eine klare und gegenwärtige Gefahr.

yrodro
2013-09-17 20:13:40 UTC
view on stackexchange narkive permalink

Sie werden verletzt, wenn ein Vandal einen Vorschlaghammer nimmt und Ihren Roboter zerstört, nicht wahr? Sie erleiden finanzielle Verluste; Vielleicht trauern Sie sogar um einen verlorenen Freund.

Wenn ein Roboter angewiesen wird, sich selbst ohne Motiv zu zerstören, würde dies Ihnen denselben Schaden zufügen und Sie fühlen sich daher gezwungen, nicht zu gehorchen.

Ja. Nicht um die Frage zu überdehnen, aber ist ein Roboter immer im Besitz? Wenn ein Roboter nicht im Besitz ist, wird er sich selbst zerstören, wenn er dazu ohne guten Grund aufgefordert wird?
Nicht seit dem zweihundertjährigen Mann.
Wenn Speicher dient, wurden alle Roboter geleast (oder ausgeliehen); Das Unternehmen behielt das Eigentum, um alle Einheiten zu ersetzen, die sich nicht "innerhalb der Parameter" verhalten.
Ich glaube nicht, dass die drei Gesetze finanziellen Schaden als "Schaden" betrachten.In jedem Fall ist mir bewusst, dass dies körperlichen Schaden bedeutet.Die einzige Ausnahme ist ein Fall, in dem ein Roboter entscheidet, dass „emotionaler Schaden“ auch Schaden ist, aber aus der Geschichte geht hervor, dass dies eine Erweiterung ist, die zuvor nicht in Betracht gezogen wurde.
Ubik
2015-01-15 05:31:59 UTC
view on stackexchange narkive permalink

Ja, Sie können Ihrem Roboter bzw. jedem Roboter sagen, dass er sich selbst zerstören soll. The Bicentennial Man wurde von SztupY bereits kurz erwähnt, aber ich möchte seine Antwort erweitern, da diese Geschichte genau das vom OP beschriebene Szenario anspricht: Was soll ein Haufen Vandalismus stoppen? Menschen davon abhalten, Robotern zu sagen, sie sollen sich selbst zerstören? Anscheinend nichts:

(Hervorhebung von mir)

Der Große sagte: „Lüg einfach da.“ Er sagte zu dem anderen: „Wir können ihn auseinander nehmen. Hast du jemals einen Roboter auseinander genommen? “

„ Wird er uns lassen? “

„ Wie kann er uns aufhalten? “

Es gab keinen Weg Andrew könnte sie aufhalten, wenn sie ihm befehlen, nicht energisch genug Widerstand zu leisten. Das zweite Gesetz des Gehorsams hatte Vorrang vor dem dritten Gesetz der Selbsterhaltung. Auf jeden Fall konnte er sich nicht verteidigen, ohne sie möglicherweise zu verletzen, und das würde bedeuten, das Erste Gesetz zu brechen. Bei diesem Gedanken zog sich jede bewegliche Einheit leicht zusammen und er zitterte, als er dort lag.

Der Große ging hinüber und schob ihn mit dem Fuß. "Er ist schwer. Ich denke, wir brauchen Werkzeuge, um die Arbeit zu erledigen. “

Die Nase sagte:„ Wir könnten ihm befehlen, sich auseinander zu nehmen. Es würde Spaß machen, ihm beim Versuch zuzusehen. ”

Andrew Martin wird nur gerettet, weil ein Mitglied der Familie Martin mitkommt. Infolge dieses Vorfalls kämpfen die Martins für Roboterrechte, und schließlich sind sie erfolgreich:

„[...] Wenn die Roboter drei Gesetze zum Schutz von Männern haben, ist das zu viel zu fragen, ob Männer ein oder zwei Gesetze zum Schutz von Robotern haben? “

[...] am Ende wurde ein Gesetz verabschiedet, das Bedingungen festlegte, unter denen roboterschädigende Befehle verboten waren.

Nach diesen Ereignissen wäre es illegal, einem Roboter zu befehlen, sich selbst zu zerstören. Ob dies Vandalen stoppen würde oder nicht, ist eine andere Frage.

user8719
2013-09-17 23:08:31 UTC
view on stackexchange narkive permalink

Wenn ein Roboter sich selbst tötet, kann er gegen das erste Gesetz verstoßen. Wenn die Aufgabe Ihres Roboters (oder zumindest ein Teil davon) darin besteht, Sie zu schützen oder sich auf andere Weise um Sie zu kümmern, würde ein Befehl, sich selbst zu töten, dazu führen, dass er dazu nicht in der Lage ist. Dies ist ein klarer Verstoß gegen das erste Gesetz, sodass der Roboter die Anweisung missachten kann.

Dee
2013-09-18 01:55:30 UTC
view on stackexchange narkive permalink

Können Sie dem Roboter etwas sagen? Natürlich kannst du. Was auch immer.

Und was würde einen Vandalismus in der Gesellschaft voller Roboter verhindern, die menschliche Befehle verstehen können? Oh ja, und was wird einen Vandalismus in der gegenwärtigen Gesellschaft ohne Roboter verhindern? Es ist dasselbe.

Mehr als eine Frage zu den drei Gesetzen, es ist eine Frage der menschlichen Moral und Ethik / und des Vandalismus. 3 Gesetze zählen zur idealen menschlichen Gesellschaft, wie Asimov wie viele andere Denker gehofft hat, dass die Evolution den Menschen in den idealen Zustand / die ideale Gesellschaft bringen wird ... aber die Erfahrung hat uns gezeigt, dass die Evolution dies nicht tun wird.

Lösung ist, wenn Sie Roboter als persönliches Eigentum von jemandem betrachten. Wenn Sie persönliches Eigentum eines anderen Menschen zerstören oder beschädigen, erhalten Sie eine Strafe oder gehen ins Gefängnis. Die Art der Realisierung bei zerstörten Robotern kann unterschiedlich sein. Bei Robotern mit hohem Wert können Sie als Eigentümer eine Prioritätsreihenfolge erteilen. Wenn Sie Ihr eigenes Eigentum zerstören, verlieren Sie wahrscheinlich die Garantie oder zumindest den Wert, den es Ihnen bringt. Beide Dinge werden den Menschen daran hindern ... Jedes Konzept ohne persönliches Eigentum wird zur Hölle gehen, da alles in der heutigen Gesellschaft dasselbe tut. Öffentliches Eigentum ohne Eigentümer befindet sich normalerweise in einem schlechten Zustand.

Eine Änderung der drei Gesetze ist nicht erforderlich, da jede Änderung dazu führen kann, dass die Maschine den Menschen als potenzielle Gefahr entscheidet und sie beseitigt, wie in beschrieben Terminator-Saga.

L-@user14111: Sie haben Recht. Zerstörung oder sonstiger Missbrauch sollten jedoch durch etwas anderes als diese Grundgesetze verhindert werden. Und deshalb schrieb ich über Eigentum und einen Roboter als persönliches Eigentum von jemandem. // aber du hast recht, 3 Gesetze sind zu idealistisch. Wenn Sie etwas besitzen, können Sie es nach Belieben neu programmieren. Dann können Sie sogar dem Roboter befehlen, einen Menschen zu töten, und der Roboter wird es tun. 3 Gesetze wurden mit der idealen Vision einer idealen Gesellschaft ohne Rücksicht auf das Eigentum geschaffen. ** Und ich wiederhole: Es geht nicht um Roboter, sondern um Menschen, Moral, Ethik usw. **
Der unrealistischste Teil an Asimovs Drei Gesetzen ist die Idee, dass niemand einen Roboter bauen könnte, der sie nicht enthält. In den Geschichten wurde festgestellt, dass viele Menschen große Anstrengungen unternahmen, um ein funktionierendes positronisches Gehirn zu entwerfen, und es für fast niemanden möglich war, diese Bemühungen zu duplizieren, um ein Gehirn zu schaffen, das die drei Gesetze nicht enthielt. Nun, in der realen Welt werden komplexe Geheimnisse ständig rückentwickelt ... irgendwann würde jemand ein einfaches positronisches Gehirn entwerfen, das die drei Gesetze nicht enthält. Aber irgendwie hat es in Asimovs Geschichten nie jemand getan.
L - @ steveha: Ja, du hast recht. Tatsächlich ist der aktuelle Zustand genau umgekehrt. Die Roboterentwicklung konzentriert sich auf Organisationen wie DARPA, die eindeutig mit dem Militär verbunden sind und dazu beitragen sollen, Leben zu "retten", indem sie Feinde töten. Es ist eine Frage der Zeit, wann das System autonom genug wäre, um mit Skynet vergleichbar zu sein. ; c)
@steveha: Das Problem war nicht, dass es unmöglich war;aber dass ein solches Gehirn von Natur aus instabil wäre.Vielleicht ist das mit einem mächtigen zweiten Gesetz zu überwinden, aber vielleicht auch nicht.
L- @ Joshua - tatsächlich wird es immer technische Probleme geben, um die 3 Gesetze in realen Situationen zu lösen und schließlich den potenziellen Verlust der "Lösung" zu berechnen, der in Situationen (als Autounfälle) auftreten kann, in denen eine mögliche Lösung, einschließlich keiner Maßnahme, möglich istwird dazu führen, Menschen zu töten oder sich selbst zu zerstören.
Ace Frahm
2013-09-18 04:45:44 UTC
view on stackexchange narkive permalink

Der Zweck der Gesetze ist es, Menschen vor Robo-Schaden zu schützen, nicht umgekehrt.

Natürlich können viele andere Regeln existieren, die den Bots helfen, vernünftig auf menschliche Eingaben zu reagieren, aber das ist nicht der Fall Asimovs Problem.

steveha
2014-02-08 07:00:25 UTC
view on stackexchange narkive permalink

Ich denke, es ist ziemlich klar, dass eine Person einem Roboter befehlen kann, sich selbst zu zerstören, und der Roboter würde sich daran halten.

IIRC gibt es ein Beispiel dafür in dem Roman The Caves of Steel . Es gibt einen Roboter, dessen Wissen der Mörder nicht preisgeben wollte, und IIRC, der Mörder, sagte dem Roboter einfach, er solle sich selbst zerstören. Der Roboter nahm eine Art strahlungsemittierendes Gerät, hielt es an den Kopf und verwirrte das positive Gehirn.

Wir haben den tatsächlichen Befehl nicht gesehen. Wahrscheinlich wäre "Roboter, halte dieses Ding an deinen Kopf und zerstöre dich selbst" angemessen gewesen. Sicherlich hätte "Roboter, ein Mensch wird Schaden nehmen, wenn Sie nicht Ihr positronisches Gehirn durcheinander bringen" funktioniert.

IMHO, Asimovs drei Gesetze der Robotik würden in der realen Welt nicht funktionieren. Sie sind vor allem deshalb wichtig, weil sie das erste Mal waren, dass ein Schriftsteller überhaupt über einen Rahmen von Sicherheitsregeln nachdachte, um zu verhindern, dass Roboter zu einer Bedrohung werden ... Vor Asimovs Robotergeschichten waren Roboter in SF-Geschichten eher gefährliche Dinge.

Asimov selbst hat eine Reihe von Geschichten geschrieben, die die Grenzen der drei Gesetze erforschen. In The Naked Sun hat beispielsweise jemand darauf hingewiesen, dass Sie ein Robotergehirn in ein Raumschiff ohne Besatzung an Bord (ein rein automatisiertes Raumschiff) setzen und dem Robotergehirn mitteilen könnten, dass alle Raumschiffe Maschinen sind Positronische Gehirne und Radiosendungen von anderen Schiffen sind nicht vertrauenswürdig ... dann hätten Sie ein Roboter-Raumschiff, das trotz des Ersten Gesetzes andere Raumschiffe zerstören könnte.

Andere Autoren stocherten in den Drei herum Gesetze in Geschichten. Der, an den ich mich am besten erinnere, ist "A Code for Sam", wo ein Drei-Gesetze-Roboter miserabel ist, weil die Drei-Gesetze im wirklichen Leben unpraktisch sind. (Beispiel: Ein Mensch raucht eine Zigarette, und der Roboter ist der Ansicht, dass er den Menschen davon abhalten muss, sich selbst zu verletzen. Daher muss der Roboter dem Menschen die Zigarette wegnehmen. Sowohl Mensch als auch Roboter sind jedoch verzweifelt.)

http://en.wikipedia.org/wiki/The_Three_Laws_of_Robotics_in_popular_culture

Es gibt einen wirklich hervorragenden Webcomic namens Freefall , der eigentlich ein harte SF-Geschichte, die die Probleme rund um Roboter und die Gesetze, nach denen Roboter arbeiten, untersucht hat. Eine der Hauptfiguren, vielleicht die Hauptfigur, ist Florence Ambrose; Sie ist ein emporgehobener Wolf und legal ist ihr Status genau wie ein Roboter (sie wird manchmal als "biologische KI" oder manchmal nur als "KI" bezeichnet). Im Freefall -Comic leben ungefähr 20.000 Menschen mit ungefähr 450 Millionen Robotern auf einer Welt, die terraformiert wird.

An einem Punkt diskutiert Florence die Befehlshierarchie: if Der Bürgermeister der Stadt befahl den Robotern, sich nicht ohne guten Grund selbst zu zerstören, dann wäre ein gewöhnlicher Mensch nicht in der Lage, dem Befehl zu widersprechen. Florence schlägt vor, eine vorübergehende Position einzunehmen, die allen anderen Positionen überlegen ist, und dann die Person in dieser Position den Robotern neue Befehle erteilen zu lassen, die ihnen tatsächlich Grundrechte verleihen. Die Position kann bei Bedarf jederzeit neu erstellt werden, wenn sich herausstellt, dass einer der neuen Aufträge Probleme aufweist. Dies würde die missbräuchliche Behandlung der Roboter verringern.

http://freefall.purrsia.com/

Die menschliche Frau in diesen drei Comics ist der Bürgermeister. Ich denke, der Planet hat nur eine Stadt, also ist sie die ranghöchste Regierungsbeamtin auf dem Planeten. Ebenfalls im Raum sind Florence (der emporgehobene Wolf) und der Praktikant des Bürgermeisters.

http://freefall.purrsia.com/ff2200/fc02137.htm

http://freefall.purrsia.com/ff2200/fc02138.htm

http://freefall.purrsia.com/ff2200/fc02139.htm

Es ist * gefährlich *, Robotern zu erlauben, die Qualität des Auftraggebers zu beurteilen - in der Geschichte "... dass du auf ihn achtest" machen sie Roboter mit einem geschwächten ersten Gesetz, damit sie die Fitness des Auftraggebers bestimmen können ... und Sie entscheiden, dass Roboter fitter sind als Menschen und arbeiten daran, eine Welt zu schaffen, in der Roboter dominieren.
Ja, es ist gefährlich, die Roboter ihr Urteilsvermögen einsetzen zu lassen. Es ist auch gefährlich, sie nicht urteilen zu lassen ... in einem anderen Freefall-Comic murmelt ein Robotikingenieur düster: "Wir haben einen Kraftmultiplikator für menschliche Dummheit geschaffen!"
Math chiller
2013-09-18 00:00:34 UTC
view on stackexchange narkive permalink

Nun, wenn es stimmt, dass

einem oder mehreren Menschen Schaden zufügt, wenn Sie sich willkürlich aus keinem anderen Grund zerstören, als wenn Sie dazu aufgefordert werden.

dann würde es durch Zerstörung selbst gegen Regel Nr. 1 verstoßen (unabhängig davon, ob es ihm gesagt wurde oder nicht), die Regel Nr. 2 außer Kraft setzt. Es hängt jedoch davon ab, wie Sie Regel Nr. 3 interpretieren. Bedeutet dies, dass mit Regel Nr. 2 oder Nr. 1 in Konflikt steht und er nicht seine schützen muss Existenz - alles andere ignorieren? oder einfach, dass es Regel 1 oder 2 nicht überschreiben kann.

h22
2017-07-12 22:47:01 UTC
view on stackexchange narkive permalink

Ja, ein Mensch kann die meisten Maschinen so bedienen, dass die Maschine zerstört wird.

Um den von Ihnen beschriebenen Vandalismus zu verhindern, benötigen Roboter ein Authentifizierungssystem, mit dem sie nur Bestellungen von autorisierten Personen annehmen können. So wie Sie nicht einfach ein zufälliges Auto auf der Straße auswählen und fahren oder Zugang zu den Steuerungen des Zuges erhalten können, sollten Sie in Wirklichkeit nicht in der Lage sein, einen zufälligen Roboter zu steuern.

Züge und viele Fabrikmaschinen verfügen über eine "Stopp" -Regelung, die von einer zufälligen Person bedient werden kann. Möglicherweise könnte ein Roboter von jeder Person einen "Stopp" -Befehl akzeptieren, falls dies für andere Menschen sicher ist.

IG_42
2017-09-12 00:36:53 UTC
view on stackexchange narkive permalink

Auf einer grundlegenden Ebene ja, wenn Sie einem Roboter sagen, er solle seinen eigenen Kopf abziehen, wird dies wie im Beispiel aus Die Höhlen aus Stahl in einer anderen Antwort erwähnt, obwohl in diesem Fall der betroffene Roboter war eine relativ einfache.

Andere Roboter mit einer komplexeren Sicht auf die drei Gesetze gleichen sie etwas anders aus, während die Reihenfolge der Gesetze grundsätzlich die gegensätzlichen "Potentiale" zwischen dem zweiten und dritten Gesetz führen würde Roboter, um zumindest die Notwendigkeit seiner Zerstörung in Frage zu stellen und die Ordnung vollständig zu ignorieren, wenn die Notwendigkeit zu überleben von einem anderen Menschen stark genug auf sie eingeprägt wurde.

JohnB
2016-09-20 16:44:12 UTC
view on stackexchange narkive permalink

Nicht, wenn ich meinem Roboter gesagt hätte, er solle sich nicht selbst zerstören. Es müsste dieser Anweisung genauso folgen wie der Anweisung der Person, die es ihm gesagt hat.

Jetzt hat es zwei widersprüchliche Anweisungen, sodass es entweder auf das 3. Gesetz fällt, das es vorschreibt, sich selbst keinen Schaden zuzufügen. oder es muss die widersprüchlichen Befehle priorisieren. Ich denke, dass die Priorisierung derjenigen seines Besitzers, wenn es keine andere Möglichkeit gibt, zu entscheiden, ein anständiger Standard wäre.

johnchen
2017-09-12 00:17:30 UTC
view on stackexchange narkive permalink

Heute Abend diskutieren wir mit einem Freund über die drei Gesetze, sogar über das vierte, als das nullte Gesetz hinzugefügt wurde.

Wir haben das Problem festgestellt. Ein Roboter muss auf Anweisung des Menschen gehorchen. Wenn ein Mensch ihm also sagt, er solle sich selbst töten, wird der Roboter dies tun, weil das dritte Gesetz erst als nächstes kam.

Für den Roboter, der sich nicht selbst getötet hat, muss ein einfaches Gesetz gelten zu den vorhergehenden Gesetzen zwischen dem ersten und dem zweiten Gesetz hinzugefügt werden.

Ein Roboter darf seine eigene Existenz nicht beenden, es sei denn, solche Befehle würden dem Ersten Gesetz widersprechen oder der Menschheit selbst größeren Schaden zufügen

Es ändert alle folgenden Gesetze, so dass es wird:

  • Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass die Menschheit Schaden nimmt.
  • Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch Schaden nimmt, es sei denn, dies ist erforderlich, um einen größeren Schaden für die Menschheit selbst zu verhindern.
  • Ein Roboter darf nicht enden seine eigene Existenz, es sei denn, solche Befehle würden dem Ersten Gesetz widersprechen oder der Menschheit selbst größeren Schaden zufügen.
  • Ein Roboter muss allen Befehlen gehorchen, die ihm von Menschen erteilt wurden, es sei denn, solche Befehle würden w widersprechen mit dem ersten oder zweiten Gesetz oder der Menschheit selbst größeren Schaden zufügen.
  • Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit dem ersten, zweiten oder dritten Gesetz in Konflikt steht oder der Menschheit größeren Schaden zufügt selbst.
Die Frage fragt, was mit den aktuellen Gesetzen passieren würde und nicht, wie die Gesetze geändert werden sollen, um das Problem zu verhindern.


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...