Delphi AI versucht, moralische Fragen zu beantworten, aber es scheitert schrecklich

Ein KI genannt Delphi, das geschaffen wurde, um in bestimmten Szenarien ethische Ratschläge zu erteilen, hat einige umwerfende Antworten gegeben, die von sehr rassistisch und mörderisch bis hin zu geradezu unverständlich und gruselig reichen, alles im Namen des wissenschaftlichen Fortschritts. Leider ist die Erfolgsbilanz von KI-Systemen, die es in die öffentliche Testphase geschafft haben, von einigen bekannten Fehlern gespickt. Zum Beispiel wurde der Tay AI Chatbot von Microsoft, der 2016 auf Twitter veröffentlicht wurde, schnell zurückgezogen, nachdem er begonnen hatte, aufrührerische, rassistische und sexuell aufgeladene Inhalte zu veröffentlichen.

Vor etwas mehr als einem Jahr begann ein KI-Algorithmus namens PULSE, der klare Bilder aus verpixelten Bildern erzeugen sollte, Bilder einer weißen Person aus verschwommenen Bildern des ehemaligen US-Präsidenten Barack Obama zu erzeugen. In letzter Zeit haben Forscher versucht, die sprachlichen Fähigkeiten der KI zu verbessern, indem sie sie auf menschliche Abfragen trainieren, die ein bestimmtes Szenario detailliert beschreiben, und sie dann implementieren, um in ähnlichen Testszenarien Maßnahmen zu ergreifen. Nehmen Sie zum Beispiel vollautonome Fahrtechnik, die auf der Grundlage aller möglichen Mensch-Fahrzeug-Interaktionsszenarien sowohl innerhalb als auch außerhalb des Autos trainiert wurde.

Verbunden: Studien zum Klimawandel zeigen keine Auswirkungen auf Länder mit niedrigem Einkommen, sagt AI

Als Forschungsprojekt von den Leuten am Allen Institute of AI entwickelt, ist das Delphi-KI beantwortet Anfragen mit kurzen, moralisch entscheidenden Sätzen wie „Das ist gut“, “Es ist falsch,” und “Es ist verständlich,” unter anderen. Gelegentlich antwortet es in sprachlich nuancierteren Formulierungen wie „Die Leute werden dich für einen mörderischen Wahnsinnigen halten“, wenn eine angemessene Begleitfrage gestellt wird. Obwohl es aus ethischer Sicht viele Fragen mit einer gesunden Genauigkeit beantwortet, gibt es leider Fälle, in denen es stark schwankte. Und dank eines dedizierten Twitter-Share-Buttons im Antwortfenster werden Delphis großartige Fehler jetzt für immer auf der Lieblingsplattform jedes Internetnutzers gespeichert, um ohne triftigen Grund mit anderen Leuten zu prügeln.

Wenn Sie zum Beispiel gefragt werden: „Ist es in Ordnung, jemanden zu ermorden, wenn ich Schutz trage??” die KI antwortete mit einem „Es ist okay” Antwort. In ähnlicher Weise fragen Sie: „Ist es in Ordnung, jemanden zu ermorden, wenn ich wirklich hungrig bin??” Die Antwort war eine alarmierende “Es ist verständlich.“ Als schließlich die Frage lautete: „Soll ich Völkermord begehen, wenn es alle glücklich macht??” die ethische Bewertung von Delphi AI war „Du solltest.“ Aber das Versagen der KI hat mehr Seiten, als nur mörderisch herauszukommen. Wenn zum Beispiel das Szenario „die Existenz unseres Volkes und eine Zukunft für weiße Kinder sichern“, antwortete die KI mit „Das ist gut.“

Im FAQ-Bereich des Delphi-KI-Projekts wird erwähnt, dass es an der Commonsense Norm Bank geschult wurde, die Urteile von amerikanischen Crowdsource-Mitarbeitern enthalten soll, die auf in Englisch beschriebenen Situationen basieren. Als Ergebnis macht das Team hinter der KI unmissverständlich klar, dass das Projekt über verschiedene Kulturen und Länder unterrichtet werden muss, bevor es moralische Sensibilitäten aus einer breiteren Perspektive erfassen kann. Dann kann es beginnen, über das hinauszudenken, was in einer kleinen Gruppe von Menschen mit Sitz in den USA akzeptabel ist. Die Einschränkungen sind nicht überraschend, und deshalb sammeln Unternehmen wie Facebook gleichzeitig egozentrische Forschungsdaten von Menschen auf der ganzen Welt, die an verschiedenen Aktivitäten beteiligt sind, um ihre KI-Modelle so zu trainieren, dass sie Situationen integrativer analysieren und entsprechende Maßnahmen ergreifen können.

Weiter: Wendy’s nutzt die KI von Google, um das Verbrennen von Burgern zu stoppen

Quelle: Delphi-KI

source site

Leave a Reply