OpenAI und andere Technologieriesen müssen die US-Regierung warnen, wenn sie neue KI-Projekte starten


Als ChatGPT von OpenAI letztes Jahr die Welt im Sturm eroberte, überraschte es viele Power-Broker sowohl im Silicon Valley als auch in Washington, DC. Die US-Regierung sollte nun vor künftigen KI-Durchbrüchen im Zusammenhang mit großen Sprachmodellen, der Technologie hinter ChatGPT, gewarnt werden.

Die Biden-Regierung bereitet sich auf die Nutzung vor Gesetz zur Verteidigungsproduktion um Technologieunternehmen zu zwingen, die Regierung zu informieren, wenn sie ein KI-Modell mit erheblicher Rechenleistung trainieren. Die Regel könnte bereits nächste Woche in Kraft treten.

Die neue Anforderung wird der US-Regierung Zugang zu wichtigen Informationen über einige der sensibelsten Projekte innerhalb von OpenAI, Google, Amazon und anderen im KI-Wettbewerb konkurrierenden Technologieunternehmen verschaffen. Unternehmen müssen auch Informationen über Sicherheitstests bereitstellen, die an ihren neuen KI-Kreationen durchgeführt werden.

OpenAI äußerte sich zurückhaltend darüber, wie viel Arbeit in einen Nachfolger seines aktuellen Spitzenangebots GPT-4 gesteckt wurde. Die US-Regierung ist möglicherweise die Erste, die erfährt, wann die Arbeiten oder Sicherheitstests an GPT-5 wirklich beginnen. OpenAI reagierte nicht sofort auf eine Bitte um Stellungnahme.

„Wir nutzen den Defence Production Act, die Autorität, die wir aufgrund des Präsidenten haben, um eine Umfrage durchzuführen, die Unternehmen verpflichtet, uns jedes Mal mitzuteilen, wenn sie ein neues großes Sprachmodell trainieren, und uns die Ergebnisse – die Sicherheit – mitzuteilen Daten – damit wir sie überprüfen können“, sagte Gina Raimondo, US-Handelsministerin, am Freitag bei einer Veranstaltung an der Stanford University Hoover-Institution. Sie sagte nicht, wann die Anforderung in Kraft treten wird oder welche Maßnahmen die Regierung aufgrund der Informationen ergreifen könnte, die sie über KI-Projekte erhalten hat. Weitere Details werden voraussichtlich nächste Woche bekannt gegeben.

Die neuen Regeln werden im Rahmen einer umfassenden Verordnung des Weißen Hauses vom vergangenen Oktober umgesetzt. Der oberster Befehl gab dem Handelsministerium eine Frist bis zum 28. Januar, um einen Plan auszuarbeiten, nach dem Unternehmen verpflichtet würden, US-Beamte über Einzelheiten zu leistungsstarken neuen KI-Modellen in der Entwicklung zu informieren. In der Anordnung hieß es, dass diese Details die Menge der verwendeten Rechenleistung, Informationen über den Besitz der in das Modell eingespeisten Daten und Einzelheiten zu Sicherheitstests umfassen sollten.

Die Anordnung vom Oktober sieht vor, mit der Definition zu beginnen, wann KI-Modelle eine Meldung an das Handelsministerium erfordern sollten, setzt jedoch zunächst eine Grenze von 100 Septillionen (eine Million Milliarden Milliarden oder 10).26) Gleitkommaoperationen pro Sekunde oder Flops und ein 1.000-mal niedrigeres Niveau für große Sprachmodelle, die mit DNA-Sequenzierungsdaten arbeiten. Weder OpenAI noch Google haben offengelegt, wie viel Rechenleistung sie zum Trainieren ihrer leistungsstärksten Modelle, GPT-4 bzw. Gemini, verwendet haben, sondern ein Forschungsdienst des Kongresses Bericht auf der Durchführungsverordnung schlägt vor, dass 1026 Flops liegt etwas über dem, was zum Trainieren von GPT-4 verwendet wurde.

Raimondo bestätigte außerdem, dass das Handelsministerium bald eine weitere Anforderung der Executive Order vom Oktober umsetzen wird, wonach Cloud-Computing-Anbieter wie Amazon, Microsoft und Google die Regierung informieren müssen, wenn ein ausländisches Unternehmen seine Ressourcen zum Trainieren eines großen Sprachmodells nutzt. Ausländische Projekte müssen gemeldet werden, wenn sie die gleiche anfängliche Schwelle von 100 Septillionen Flops überschreiten.

source-114

Leave a Reply