Der CTO von OpenAI sagt, dass staatliche Regulierungsbehörden „sehr involviert“ in die Regulierung von KI sein sollten

Mira Murati, Chief Technology Officer bei OpenAI, ist der Ansicht, dass staatliche Regulierungsbehörden „sehr involviert“ sein sollten, Sicherheitsstandards für den Einsatz fortschrittlicher Modelle für künstliche Intelligenz wie ChatGPT zu entwickeln.

Sie glaubt auch, dass eine vorgeschlagene sechsmonatige Entwicklungspause nicht der richtige Weg ist, um sicherere Systeme zu bauen, und dass die Industrie derzeit nicht nahe daran ist, künstliche allgemeine Intelligenz (AGI) zu erreichen – eine hypothetische intellektuelle Schwelle, zu der ein künstlicher Agent in der Lage ist Ausführen von Aufgaben, die Intelligenz erfordern, einschließlich menschlicher Wahrnehmung. Ihre Kommentare stammen von einer Interview mit der Associated Press veröffentlicht am 24. April.

Verwandt: Elon Musk startet wahrheitssuchende Plattform für künstliche Intelligenz TruthGPT

Auf die Frage nach den Sicherheitsvorkehrungen, die OpenAI vor dem Start von GPT-4 getroffen hat, erklärte Murati, dass das Unternehmen beim Training einen langsamen Ansatz gewählt habe, um nicht nur die Vorliebe der Maschine für unerwünschtes Verhalten zu unterdrücken, sondern auch um nachgelagerte Bedenken im Zusammenhang mit solchen Änderungen zu lokalisieren:

„Man muss sehr vorsichtig sein, weil man sonst ein anderes Ungleichgewicht erzeugen könnte. Sie müssen ständig auditieren […] Dann müssen Sie es also erneut anpassen und bei jedem Eingriff sehr vorsichtig sein, um zu sehen, was sonst noch gestört wird.“

Nach dem Start von GPT-4 befürchten Experten die unbekannt-unbekannt rund um die Zukunft der KI haben Interventionen gefordert, die von einer verstärkten staatlichen Regulierung bis hin zu einer sechsmonatigen Pause bei der globalen KI-Entwicklung reichen.

Der letztere Vorschlag erregte Aufmerksamkeit und Unterstützung von Koryphäen auf dem Gebiet der KI wie Elon Musk, Gary Marcus und Eliezer Yudkowski, während viele bemerkenswerte Persönlichkeiten, darunter Bill Gates, Yann LeCun und Andrew Ng, sich dagegen ausgesprochen haben.

Murati ihrerseits drückte ihre Unterstützung für die Idee einer verstärkten Beteiligung der Regierung aus und erklärte: „Diese Systeme sollten reguliert werden.“ Sie fuhr fort: „Bei OpenAI sprechen wir ständig mit Regierungen und Regulierungsbehörden und anderen Organisationen, die diese Systeme entwickeln , zumindest auf Unternehmensebene, sich auf ein gewisses Maß an Standards einigen.“

Aber zum Thema Entwicklungspause war Muratis Ton kritischer:

„Einige der Aussagen in dem Brief über die Entwicklung von GPT-4 oder GPT-5 waren einfach falsch. Wir trainieren nicht GPT-5. Wir haben keine Pläne, dies in den nächsten sechs Monaten zu tun. Und wir haben GPT-4 nicht überstürzt herausgebracht. Wir haben tatsächlich sechs Monate gebraucht, um uns ausschließlich auf die sichere Entwicklung und den Einsatz von GPT-4 zu konzentrieren.”

Als Antwort darauf, ob es derzeit „einen Weg zwischen Produkten wie GPT-4 und AGI“ gebe, sagte Murati gegenüber Associated Press, dass „wir weit davon entfernt sind, ein sicheres, zuverlässiges und abgestimmtes AGI-System zu haben“.

Dies könnten schlechte Nachrichten für diejenigen sein, die glauben, dass GPT-4 an AGI grenzt. Der derzeitige Fokus des Unternehmens auf Sicherheit und die Tatsache, dass es laut Murati noch nicht einmal GPT-5 trainiert, sind starke Anzeichen dafür, dass die begehrte allgemeine Geheimdienstentdeckung vorerst unerreichbar bleibt.

Der verstärkte Fokus des Unternehmens auf die Regulierung erfolgt inmitten eines stärkeren Trends zur staatlichen Kontrolle. OpenAI hat kürzlich seine GPT-Produkte in Italien verboten und steht vor einer Frist bis zum 30. April für die Einhaltung lokaler und EU-Vorschriften in Irland – ein Experte sagt, dass es schwierig sein wird, sie einzuhalten.

Solche Verbote könnten schwerwiegende Auswirkungen auf die europäische Kryptowährungsszene haben, da es eine zunehmende Bewegung in Richtung der Einführung fortschrittlicher Krypto-Trading-Bots gibt, die auf Apps basieren, die die GPT-API verwenden. Wenn OpenAI und Unternehmen, die ähnliche Produkte entwickeln, nicht in der Lage sind, legal in Europa zu operieren, könnten Händler, die die Technologie nutzen, woanders hin gezwungen werden.