Was Robbie von Isaac Asimov über KI lehrt und wie der Geist „funktioniert“


Bei Isaac Asimov In der klassischen Science-Fiction-Geschichte „Robbie“ besitzt die Familie Weston einen Roboter, der als Kindermädchen und Begleiterin für ihre frühreife, jugendliche Tochter Gloria dient. Gloria und der Roboter Robbie sind Freunde; Ihre Beziehung ist liebevoll und fürsorglich. Gloria betrachtet Robbie als ihren treuen und pflichtbewussten Betreuer. Mrs. Weston macht sich jedoch Sorgen über diese „unnatürliche“ Beziehung zwischen dem Roboter und ihrem Kind und macht sich Sorgen über die Möglichkeit, dass Robbie Gloria Schaden zufügen könnte (obwohl er ausdrücklich darauf programmiert ist, dies nicht zu tun); Es ist klar, dass sie eifersüchtig ist. Nach mehreren gescheiterten Versuchen, Gloria von Robbie zu entwöhnen, schlägt ihr Vater, verärgert und erschöpft von den Protesten der Mutter, einen Rundgang durch eine Roboterfabrik vor – dort wird Gloria sehen, dass Robbie „nur“ ein hergestellter Roboter ist, kein Roboter Person und entliebe dich in sie. Gloria muss kommen, um zu erfahren, wie Robbie funktioniert und wie er geschaffen wurde. Dann wird sie verstehen, dass Robbie nicht der ist, für den sie ihn hält. Dieser Plan funktioniert nicht. Gloria erfährt nicht, wie Robbie „wirklich funktioniert“, und in einer Wendung der Handlung werden Gloria und Robbie noch bessere Freunde. Mrs. Weston, die Spielverderberin, wird erneut vereitelt. Gloria bleibt „im Irrtum“ darüber, wer Robbie „wirklich“ ist.

Was ist die Moral dieser Geschichte? Am wichtigsten ist, dass diejenigen, die mit künstlichen Agenten interagieren und Kontakte knüpfen, ohne zu wissen (oder sich darum zu kümmern), wie sie intern „wirklich funktionieren“, besondere Beziehungen zu ihnen entwickeln und ihnen die für ihre Beziehungen angemessenen mentalen Qualitäten zuschreiben. Gloria spielt mit Robbie und liebt ihn als Begleiter; er kümmert sich im Gegenzug um sie. Es gibt einen Interpretationstanz, den Gloria mit Robbie führt, und Robbies innere Abläufe und Konstitution spielen dabei keine Rolle. Wenn sich die Gelegenheit ergibt, solche Details zu erfahren, lenken weitere Beweise für Robbies Funktionalität (nachdem er Gloria vor einem Unfall gerettet hat) ab und halten Gloria davon ab, weiter zu lernen.

Philosophisch gesehen lehrt uns „Robbie“, dass wir keine Aussage darüber machen, wenn wir einem anderen Wesen einen Geist zuschreiben Art Es geht vielmehr darum, zu zeigen, wie tief wir verstehen, wie es ist funktioniert. Gloria zum Beispiel hält Robbie für intelligent, aber ihre Eltern glauben, dass sie sein scheinbar intelligentes Verhalten auf untergeordnete Maschinenoperationen reduzieren können. Um dies umfassender zu verstehen, beachten Sie den umgekehrten Fall, in dem wir uns selbst mentale Qualitäten zuschreiben, die wir Programmen oder Robotern nicht zuschreiben möchten. Diese Eigenschaften wie Intelligenz, Intuition, Einsicht, Kreativität und Verständnis haben eines gemeinsam: Wir wissen nicht, was sie sind. Trotz der übertriebenen Behauptungen, die von Praktikern der Neurowissenschaften und der empirischen Psychologie sowie von verschiedenen Kognitionswissenschaftlern oft in Umlauf gebracht werden, bleiben diese selbstgesteuerten Komplimente undefinierbar. Jeder Versuch, das eine zu charakterisieren, bezieht das andere ein („wahre Intelligenz erfordert Einsicht und Kreativität“ oder „wahres Verständnis erfordert Einsicht und Intuition“) und ist mit ausgiebigem Handwinken verbunden, ja erfordert es sogar.

Aber auch wenn wir nicht ganz sicher sind, was diese Qualitäten sind oder worauf sie gründen, ist sich der sprichwörtliche „gebildete Laie“ ganz sicher, dass Menschen sie haben, was auch immer die geistige Qualität sein mag, und Maschinen wie Roboter nicht – selbst wenn Maschinen so handeln wie wir , indem sie dieselben Produkte herstellen wie Menschen und gelegentlich menschliche Leistungen nachbilden, von denen es heißt, dass sie Intelligenz, Einfallsreichtum oder was auch immer erfordern. Warum? Denn wie Glorias Eltern Wir wissen (Dank der Information durch die Schöpfer des Systems in den populären Medien), dass „sie nur tun [table lookup / prompt completion / exhaustive search of solution spaces].“ Mittlerweile sind die mentalen Eigenschaften, die wir auf uns selbst anwenden, so vage definiert und unsere Unwissenheit über unsere mentalen Vorgänge (derzeit) so tiefgreifend, dass wir nicht sagen können: „Die menschliche Intuition (Einsicht oder Kreativität) ist gerecht.“ [fill in the blanks with banal physical activity].“

Aktuelle Debatten über künstliche Intelligenz verlaufen also so, wie sie es tun, denn wann immer wir mit einer „künstlichen Intelligenz“ konfrontiert werden, einer Person, deren Funktionsweise wir (zu verstehen) verstehen, ist es leicht, schnell zu antworten: „Alles, was dieser künstliche Agent tut, ist X.“ .“ Diese reduzierende Beschreibung entmystifiziert ihre Funktionsweise und wir sind daher sicher, dass sie nicht intelligent (oder kreativ oder aufschlussreich) ist. Mit anderen Worten: Jene Wesen oder Dinge, deren innere Vorgänge auf niedrigerer Ebene wir verstehen und auf die wir hinweisen und die wir beleuchten können, funktionieren lediglich nach bekannten Mustern banaler physikalischer Vorgänge. Diese scheinbar intelligenten Wesenheiten, deren interne Operationen wir durchführen nicht verstehen sind zu Einsicht, Verständnis und Kreativität fähig. (Ähnlichkeit mit Menschen hilft auch; wir verweigern Tieren, die nicht wie wir aussehen, leichter die Intelligenz.)

Aber was wäre, wenn wir wie Gloria nicht so viel darüber wüssten, was ein System, ein Wesen, ein Objekt oder ein Außerirdischer tut, wenn es seine scheinbar „intelligenten“ Antworten liefert? Welche Eigenschaften würden wir ihm zuschreiben, um zu verstehen, was er tut? Dieser Grad der Unverständlichkeit nähert sich vielleicht rasch. Erleben Sie die verblüfften Reaktionen einiger ChatGPT-Entwickler auf sein angeblich „auftauchendes“ Verhalten, bei dem niemand zu wissen scheint, wie genau ChatGPT die Antworten produziert hat. Wir könnten natürlich darauf bestehen, dass „alles, was es tut, eine (irgendeine) pünktliche Fertigstellung ist“. Aber eigentlich könnten wir über den Menschen auch einfach sagen: „Es sind nur Neuronen, die feuern.“ Aber weder ChatGPT noch Menschen würden auf diese Weise für uns einen Sinn ergeben.

Die Beweise deuten darauf hin, dass wir, wenn wir auf ein ausreichend kompliziertes und interessantes Wesen stoßen würden, das intelligent erscheint, wir aber nicht wissen, wie es funktioniert, und unsere übliche abweisende Bemerkung nicht aussprechen können: „Alle.“ X tut ist j„Wir würden beginnen, die Sprache der „Volkspsychologie“ zu verwenden, um unsere Interaktionen mit ihm zu steuern, um zu verstehen, warum er tut, was er tut, und, was noch wichtiger ist, um zu versuchen, sein Verhalten vorherzusagen. In historischer Analogie: Als wir nicht wussten, was den Ozean und die Sonne bewegte, verliehen wir ihnen Geisteszustände. („Das wütende Meer glaubt, die Klippen seien seine Todfeinde.“ Oder „Die Sonne will schnell untergehen.“) Nachdem wir dank unseres wachsenden Wissens über die Naturwissenschaften wussten, wie sie funktionieren, degradierten wir sie zu rein physischen Objekten. (Ein Schachzug mit katastrophalen Folgen für die Umwelt!) Ebenso könnten wir ihnen, sobald wir den Überblick über das Innere von Systemen der künstlichen Intelligenz verlieren oder mit ihnen aufwachsen, ohne zu wissen, wie sie funktionieren, ebenfalls Geist zuschreiben. Dies ist eine Frage einer pragmatischen Entscheidung, nicht einer Entdeckung. Denn das könnte der beste Weg sein, zu verstehen, warum und was sie tun.

source-114

Leave a Reply