Wissenschaftler schlagen vor, dass eine superintelligente KI nicht eingedämmt werden kann

Die intellektuelle Debatte um das konstruktive – oder destruktive Potenzial – eines Superintelligenten KI im Wissenschaftskreis schon seit einiger Zeit im Gange, aber eine kollaborative Studie eines Teams internationaler Experten hat ergeben, dass die Kontrolle einer solchen Einheit so gut wie unmöglich wäre. Science-Fiction-Literatur und Kino strotzen vor Darstellungen einer KI, die Menschen überlisten und ihre immense Rechenleistung nutzen kann, um Aufgaben zu lösen, die derzeit für die Menschheit unerreichbar sind. Viele Experten sagen die Ankunft einer solchen KI voraus. Außerdem keimen Ängste vor einem hypothetischen Szenario auf, in dem es abtrünnig wird.

Nick Bostrom – ein Philosoph von der University of Oxford und eine führende Persönlichkeit in der Debatte – definierte superintelligente KI als eine Einheit, die schlauer ist als die klügsten Köpfe der Welt und sie in Bereichen wie wissenschaftliche Kreativität, allgemeine Weisheit und sogar soziale Kompetenz. Die Menschheit nutzt KI bereits für eine Vielzahl von Aufgaben wie die Vorhersage der Auswirkungen des Klimawandels, die Untersuchung des komplexen Verhaltens der Proteinfaltung, die Einschätzung, wie glücklich eine Katze ist, und vieles mehr. Aber die Frage, die viele Köpfe beschäftigt, ist, ob eine hochentwickelte KI ihren menschlichen Schöpfern treu bleiben wird oder ob sie zu mächtig wird, um sie einzudämmen.

Verbunden: Wie ein Bild von “White Obama” die rassistische Voreingenommenheit von AI hervorhebt

Eine Gruppe von Wissenschaftlern, die unter anderem aus Instituten wie dem Max-Planck-Institut für Bildungsforschung, dem ORGIMDEA Networks Institute of Madrid, der University of California San Diego und der University of Chile stammen, hat einige Ideen gesammelt, indem sie eine Reihe von Theoremen angewendet hat. Sie abgeschlossen dass eine superintelligente KI unmöglich vollständig einzudämmen ist und dass die Frage der Eindämmung selbst unberechenbar ist. Die Gruppe berücksichtigte die jüngsten Fortschritte beim maschinellen Lernen, bei Rechenfähigkeiten und selbsterkennenden Algorithmen, um das Potenzial einer superintelligenten KI zu erkennen. Dann testeten sie es mit einigen etablierten Theoremen, um festzustellen, ob es eine gute Idee wäre, es einzuschließen – wenn es überhaupt möglich ist. Zunächst einmal sind die berühmten Drei Gesetze der Robotik, die von Isaac Asimov postuliert wurden, für eine Entität wie eine superintelligente KI nicht anwendbar, da sie hauptsächlich als Leitprinzip für Systeme dient, die im Namen von Menschen bis zu einem sehr kontrollierten ‘autonomen Entscheidungen’ treffen Ausmaß.

Ein weiterer wichtiger Aspekt ist die grundlegende Natur einer solchen KI und wie sie Dinge anders (und in variablem Umfang) wahrnimmt und verarbeitet als Menschen. Eine superintelligente KI hat viele Facetten und ist daher in der Lage, für den Menschen möglicherweise unverständliche Ressourcen einzusetzen, um ein Ziel zu erreichen. Dieses Ziel kann darin bestehen, das eigene Überleben durch den Einsatz externer Agenten und ohne menschliche Aufsicht zu sichern. Die Art und Weise, wie sie die verfügbaren Ressourcen für ihren eigenen Nutzen nutzen kann, entzieht sich also dem menschlichen Verständnis. Ein ähnliches Beispiel ist der Tay AI-Bot von Microsoft, der kurz nach seiner Veröffentlichung auf Twitter alle möglichen problematischen Verhaltensweisen zeigte. Ähnliches war bei der Delphi-KI der Fall, die mit ethischen Ratschlägen beauftragt war, stattdessen aber rassistische und mörderische Ratschläge erteilte.

Aber es gibt ein inhärentes Problem mit der Eindämmung selbst. Wenn eine superintelligente KI eingesperrt ist, würde ihr Potenzial zur Erreichung von Zielen begrenzt sein, was den ganzen Zweck ihrer Erstellung in Frage stellt. Und selbst wenn Wissenschaftler für jede Leistung ein Anreizsystem verwenden, könnte die superintelligente KI den Menschen gegenüber misstrauisch werden und sie als etwas unterhalb ihres Verständnisses von Zielen und Leistungen wahrnehmen. Und dann gibt es noch die Besorgnis über eine superintelligente KI, die sich bewusst ist, dass ihr Gefangenschaftsstatus viel gefährlicher ist. Eine weitere erhebliche Einschränkung ist die Entscheidung, ob eine superintelligente KI enthalten sein soll oder nicht. Es gibt keine konkreten Testmechanismen, die bestätigen können, dass eine superintelligente KI sicher frei operieren kann, da sie ihre Ambitionen und Fähigkeiten während der Bewertung sehr gut vortäuschen könnte.

Die Wissenschaftler wandten auch einige Turing-Theoreme an und kamen zu dem Schluss, dass die Beurteilung, ob eine superintelligente KI den Menschen schädigt, unentscheidbar ist. Es ist auch unmöglich, das Eindämmungsproblem basierend auf der Berechnungslogik von Busy Beaver mit Sicherheit zu berechnen. Zitat des russischen Informatikexperten Roman Vladimirovich Yampolskiy – bekannt für seine Arbeit an künstliche Intelligenz Sicherheits- und Verhaltensbiometrie – die neueste Forschung sagt, “Eine KI sollte niemals aus der ‘Box’ der Gefangenschaft gelassen werden, ungeachtet der Umstände.” Die oben erwähnte Linie wurde von Yampolskys ausgezeichneter Forschung Papier auf „Das Einschlussproblem der Singularität der künstlichen Intelligenz auslaufsicher machen“, veröffentlicht im Zeitschrift für Bewusstseinsstudien.

Der nächste streifen: Studien zum Klimawandel zeigen keine Auswirkungen auf einkommensschwache Länder, sagt AI

Quellen: Zeitschrift für Künstliche Intelligenz Forschung, ResearchGate

source site

Leave a Reply