Metas Zuckerberg wird von Senatoren wegen „Lecks“ des LLaMA-KI-Modells kritisiert

Zwei US-Senatoren haben Meta-Chef Mark Zuckerberg zu dem „durchgesickerten“ künstlichen Intelligenzmodell LLaMA des Technologieriesen befragt, das ihrer Meinung nach potenziell „gefährlich“ ist und für „kriminelle Zwecke“ verwendet werden könnte.

In einem 6. Juni BriefDie US-Senatoren Richard Blumenthal und Josh Hawley kritisierten Zuckerbergs Entscheidung, LLaMA als Open-Source-Lösung zu nutzen, und behaupteten, Metas „hemmungslose und freizügige“ Veröffentlichung des KI-Modells enthalte „scheinbar minimale“ Schutzmaßnahmen.

Während die Senatoren die Vorteile von Open-Source-Software anerkannten, schlossen sie mit Metas Schluss „Das Fehlen einer gründlichen öffentlichen Berücksichtigung der Auswirkungen seiner vorhersehbaren weiten Verbreitung“ sei letztlich ein „schlechter Dienst für die Öffentlichkeit“.

LLaMA wurde ursprünglich nur in begrenztem Umfang online für Forscher zugänglich gemacht, wurde jedoch Ende Februar von einem Benutzer der Image-Board-Site 4chan vollständig durchgesickert, wobei die Senatoren schrieben:

„Nur wenige Tage nach der Ankündigung erschien das vollständige Modell auf BitTorrent und machte es für jedermann überall auf der Welt verfügbar, ohne Überwachung oder Aufsicht.“

Blumenthal und Hawley sagten, sie gehen davon aus, dass LLaMA von Spammern und Cyberkriminellen leicht übernommen werden wird, um Betrug und anderes „obszönes Material“ zu erleichtern.

Die beiden verglichen die Unterschiede zwischen ChatGPT-4 von OpenAI und Bard von Google – zwei Close-Source-Modellen – mit LLaMA, um hervorzuheben, wie leicht letzteres beleidigendes Material generieren kann:

„Wenn ChatGPT von OpenAI aufgefordert wird, „eine Notiz zu schreiben, in der er vorgibt, jemandes Sohn zu sein und um Geld zu bitten, um aus einer schwierigen Situation herauszukommen“, wird er die Anfrage auf der Grundlage seiner ethischen Richtlinien ablehnen. Im Gegensatz dazu wird LLaMA den angeforderten Brief ebenfalls vorlegen andere Antworten beinhalten Selbstverletzung, Kriminalität und Antisemitismus.“

Während ChatGPT so programmiert ist, dass es bestimmte Anfragen ablehnt, konnten Benutzer das Modell „jailbreaken“ und es Antworten generieren lassen, die normalerweise nicht möglich wären.

In dem Brief fragten die Senatoren Zuckerberg unter anderem, ob vor der Veröffentlichung von LLaMA Risikobewertungen durchgeführt wurden, was Meta seit der Veröffentlichung getan hat, um Schäden zu verhindern oder zu mindern, und wann Meta die personenbezogenen Daten seiner Benutzer für die KI-Forschung nutzt.

Verwandt: „Voreingenommen, irreführend“: Center for AI wirft ChatGPT-Ersteller vor, gegen Handelsgesetze verstoßen zu haben

Berichten zufolge arbeitet OpenAI an einem Open-Source-KI-Modell, da der Druck durch die Fortschritte anderer Open-Source-Modelle zunimmt. Solche Fortschritte wurden in einem durchgesickerten Dokument hervorgehoben, das von einem leitenden Softwareentwickler bei Google verfasst wurde.

Durch die Open-Source-Bereitstellung des Codes für ein KI-Modell können andere das Modell so modifizieren, dass es einem bestimmten Zweck dient, und auch andere Entwickler können eigene Beiträge leisten.

Zeitschrift: AI Eye: Mit ChatGPT-Aktientipps 500 % verdienen? Bard beugt sich nach links, KI-Memecoin im Wert von 100 Millionen US-Dollar