Meta AI Bot trägt zu gefälschter Online-Forschung bei


Metas KI-Bot Galactica wurde nach nur zwei Tagen pausiert.

Foto: Andrea Verdell (Getty Images)

Meta pausierte seine Künstliche Intelligenz (AI) Bot letzte Woche, nur zwei Tage nachdem es an die Öffentlichkeit ging. Der Bot mit dem Namen Galactica wurde „auf 106 Milliarden Token mit frei zugänglichen wissenschaftlichen Texten und Daten trainiert. Dazu gehören Aufsätze, Lehrbücher, wissenschaftliche Websites, Enzyklopädien, Referenzmaterial, Wissensdatenbanken und mehr“, sagte das Unternehmen Das tägliche Biest.

Es sollte Akademikern und Forschern helfen, schnell und prägnant Aufsätze und Studien zu finden, wurde aber stattdessen von Unmengen an Fehlinformationen überschwemmt, die fälschlicherweise seriöse Wissenschaftler zitierten.

Der Ruf von Wissenschaftlern könnte aufs Spiel gesetzt werden, wenn sie im Text falsch zitiert werden, sagte Carl Bergstrom, Professor für Biologie an der University of Washington CNET dass das Problem der Galactica darin besteht, dass sie als eine Möglichkeit beworben wurde, Fakten und Informationen zu erhalten. Aber stattdessen sagte er, es handle sich wie „eine ausgefallene Version des Spiels, bei der man mit einem halben Satz beginnt und dann den Rest der Geschichte automatisch vervollständigen lässt“.

Innerhalb weniger Stunden, nachdem Galactica live ging, begannen Benutzer mit einer Person, rassistische und ungenaue Artikel zu melden ein Bild posten der Antwort auf eine Anfrage zu sprachlichen Vorurteilen. Die Antwort des Bots behauptete fälschlicherweise, dass Schwarze „keine eigene Sprache haben“ und Einwanderer „keine Sprache sprechen, die sich von der Sprache des Landes unterscheidet, in das sie einwandern“.

Andere generierte Informationen umfassten eine gefälschte Studie über die Vorteile des Verzehrs von zerkleinertem Glas und gefälschte Informationen über Forscher der Stanford University, die eine „Gaydar“-Software dafür entwickelten Finden Sie schwule Menschen auf Facebook.

Ein Sprecher von Meta AI sagte gegenüber CNET: „Die Galactica ist keine Quelle der Wahrheit, sie ist ein Forschungsexperiment, das verwendet wird [machine learning] Systeme zum Lernen und Zusammenfassen von Informationen.“ Er fügte hinzu, Galactica „ist eine explorative Forschung, die kurzfristiger Natur ist und keine Produktpläne hat.“ Meta-KI-Chefwissenschaftler Yann LeCun teilte der Verkaufsstelle mit, dass der Bot entfernt wurde, weil das Team „so verstört von dem Vitriol auf Twitter“ war.

Zwei Tage nach dem Start von Galactica pausierte das Meta-KI-Team den Bot und Metas leitenden KI-Wissenschaftler Yann LeCun twitterte, „Die Galactica-Demo ist vorerst offline. Es ist nicht mehr möglich, Spaß zu haben, indem man es beiläufig missbraucht. Glücklich?”

Meta-KI (zuvor genannt Facebook Artificial Intelligence Research) entwickelte Galactica als einen Weg Wissenschaft zu „organisieren“ und zu verdichten eine überwältigende Menge an wissenschaftlichen Informationen, die online zu finden sind. Die Idee war, die KI zu haben Dinge wie mathematische Probleme lösen, wissenschaftlichen Code schreiben und Forschungszusammenfassungen erstellen.

Meta notiert auf der Galactica-Website dass das KI-Modell Einschränkungen hat, die dazu führen können, dass es „halluziniert“. Die Website rät Benutzern, alle Informationen zu überprüfen, die auftauchen und weitersagen „Es gibt keine Garantien für eine wahrheitsgetreue oder zuverlässige Ausgabe von Sprachmodellen, selbst große auf hochwertigen Daten wie Galactica“, und fügte hinzu, dass der generierte Text „sehr authentisch und sehr zuversichtlich“ erscheinen könnte, aber dennoch falsch sein könnte.

„Ich kann mir vorstellen, dass es trotz seiner vielen vorhersehbaren Mängel wünschenswerte Verwendungen für ein solches System gibt“, sagte Vincent Conitzer, Professor für Informatik an der Carnegie Mellon University in Pittsburgh, gegenüber The Daily Beast.

„Mein Eindruck ist, dass Meta es besser gemacht hätte, wenn es mehr Mühe in diese öffentliche Veröffentlichung gesteckt hätte, indem es zuerst ernsthaftere Benutzerstudien durchgeführt, die Aufmerksamkeit auf wünschenswerte Verwendungen des Systems gelenkt hätte und ehrlich und entgegenkommend in Bezug auf unerwünschte Verwendungen gewesen wäre.“



source-113

Leave a Reply