Hart umkämpfte Bestimmungen zum KI-Gesetz könnten obsolet werden, sagen Experten


Eine wichtige Bestimmung im KI-Regelwerk der EU zur Bewertung der Risiken von Basismodellen wie ChatGPT könnte aufgrund der Geschwindigkeit der technologischen Entwicklung innerhalb eines Jahres obsolet werden, sagten Experten gegenüber Euractiv.

Das KI-Gesetz der EU ist das weltweit erste umfassende Regelwerk zur Regulierung künstlicher Intelligenz. Dies geschieht aufgrund seiner Fähigkeit, Schaden anzurichten. Nach jahrelangen intensiven Verhandlungen erhielt es am Mittwoch (13. März) mit überwältigender Mehrheit die endgültige Zustimmung des Europäischen Parlaments.

Das KI-Gesetz unterscheidet die Risiken, die von Stiftungsmodellen ausgehen, anhand der Rechenleistung, mit der sie trainiert werden. Foundation-Modelle, auch Allzweck-KI genannt, sind aufgrund ihrer vielfältigen Einsatzmöglichkeiten besonders leistungsfähig.

Das Gesetz definiert einen Schwellenwert von 10^25 Gleitkommaoperationen pro Sekunde (FLOPs), ein Maß für die Leistung eines Computers. KI-Produkte, die diesen Schwellenwert überschreiten, gelten als „systemisches Risiko“ und werden strenger reguliert.

Technologie übertrifft Regulierung

Jedoch, Dragoş Tudorache, ein Europaabgeordneter, der als Mitberichterstatter für das Dossier fungierte, sagte, dass die Regeln bald überholt sein könnten.

„Bis die Regeln für Stiftungsmodelle in Kraft treten [12 months from now] Entweder wird es vier oder fünf große Modelle geben, die diese Schwelle überschreiten […] oder ein neuer Technologiesprung [will bring down the computational requirements for powerful foundation models]“, sagte er zu Euractiv.

Derzeit überschreiten wahrscheinlich nur die neuesten ChatGPT-Modelle von Google Gemini und OpenAI diese Schwelle, sagte Tudorache.

In einem separaten Interview mit Euractiv stimmte Sandra Wachter, Professorin für Technologie und Regulierung am Oxford Internet Institute, dieser Einschätzung zu.

Angesichts der schwindelerregenden Geschwindigkeit, mit der sich die KI-Technologie entwickelt, bietet das KI-Gesetz ein gewisses Maß an Flexibilität, auch wenn es um Grundlagenmodelle geht, sagte Tudorache.

Der Flops-Schwellenwert „verwechselt Rechenleistung mit Risiko“, was zwei verschiedene Dinge seien, sagte Wachter gegenüber Euractiv. Unabhängig von ihrer Größe bergen diese Modelle alle möglichen Risiken in Bezug auf Voreingenommenheit, Fehlinformationen, Datenschutz und Halluzinationen, sagte sie.

In der Zwischenzeit arbeiten Ingenieure im Silicon Valley und darüber hinaus daran, den hohen Rechenaufwand zu reduzieren, wobei dies hauptsächlich nicht durch das KI-Gesetz, sondern durch Kostenkontrolle gefördert wird.

Einflussreiches US-Risikokapitalunternehmen a16z hat angerufen Das Training dieser Modelle „eine der rechenintensiveren Aufgaben, die die Menschheit bisher unternommen hat“. Daher versuchen Unternehmen, die enormen Kosten zu senken, die mit der Kanalisierung dieser Art von Rechenleistung verbunden sind.

Die Zukunft der Schwelle

Die Flops-Klassifizierung gilt nur als erster Schritt und kann von der Kommission zusammen mit anderen Definitionen und Kategorisierungen des KI-Gesetzes überprüft werden. Es gibt keinen vorab festgelegten Zeitplan für die Überprüfung des Flops-Kriteriums; es obliegt der Kommission, dies durch einen delegierten Rechtsakt zu tun.

Der Weg zur Überprüfung wird jedoch nicht einfach sein.

Die Einbeziehung von Stiftungsmodellen in die Gesetzgebung war ursprünglich nicht vorgesehen, wurde jedoch mit der Explosion von ChatGPT im Jahr 2022 zwingend erforderlich. Wie diese reguliert werden sollten, war so umstritten, dass die Verhandlungen zu diesem Thema im November 2023 fast auf die Bremse traten .

Der Teil des KI-Gesetzes zu Stiftungsmodellen „war ein Ergebnis von Lobbyarbeit“ und seine Auswirkungen sind noch unbekannt, sagte Merve Hickok, Präsident und Forschungsdirektor des Zentrums für KI und digitale Politik, gegenüber Euractiv.

[Edited by Nathalie Weatherald]

Lesen Sie mehr mit Euractiv



source-127

Leave a Reply