OpenAI hat bis zum 30. April Zeit, die EU-Gesetze einzuhalten, sagen Experten, „fast unmöglich“.

OpenAI könnte bald vor seiner größten regulatorischen Herausforderung stehen, da die italienischen Behörden darauf bestehen, dass das Unternehmen bis zum 30.

Die italienischen Behörden haben Ende März ein pauschales Verbot der GPT-Produkte von OpenAI erlassen und waren damit das erste westliche Land, das die Produkte vollständig meidet. Die Aktion folgte auf eine Datenschutzverletzung, bei der ChatGPT- und GPT-API-Kunden Daten sehen konnten, die von anderen Benutzern generiert wurden.

Per einer Bing-betriebenen Übersetzung des Italienischen Befehl Befehlen von OpenAI, seinen ChatGPT-Betrieb in der Nation einzustellen, bis es in der Lage ist, die Einhaltung nachzuweisen:

„Die italienische SA hebt in ihrer Verfügung hervor, dass Benutzern und betroffenen Personen, deren Daten von Open AI erfasst werden, keine Informationen bereitgestellt werden; Noch wichtiger ist, dass es anscheinend keine Rechtsgrundlage für die massive Erhebung und Verarbeitung personenbezogener Daten gibt, um die Algorithmen zu „trainieren“, auf die sich die Plattform stützt.“

In der italienischen Beschwerde heißt es weiter, dass OpenAI auch Maßnahmen zur Altersüberprüfung implementieren muss, um sicherzustellen, dass seine Software und Dienste den eigenen Nutzungsbedingungen des Unternehmens entsprechen, die erfordern, dass Benutzer über 13 Jahre alt sind.

Verwandt: EU-Gesetzgeber fordern „sichere“ KI, da der CEO von Google vor einer schnellen Entwicklung warnt

Um die Einhaltung der Datenschutzbestimmungen in Italien und im Rest der Europäischen Union zu erreichen, muss OpenAI eine Grundlage für seine umfassenden Datenerfassungsprozesse schaffen.

Unter der Datenschutz-Grundverordnung (DSGVO) der EU sind Tech-Outfits muss um die Zustimmung des Benutzers zum Training mit personenbezogenen Daten zu bitten. Darüber hinaus müssen in Europa tätige Unternehmen den Europäern die Möglichkeit geben, der Datenerhebung und -weitergabe zu widersprechen.

Experten zufolge wird dies eine schwierige Herausforderung für OpenAI sein, da seine Modelle auf riesigen Datenbeständen trainiert werden, die aus dem Internet geschabt und zu Trainingssets zusammengeführt werden. Diese Form des Black-Box-Trainings Ziele ein Paradigma namens „Emergenz“ zu schaffen, bei dem sich nützliche Merkmale unvorhersehbar in Modellen manifestieren.

Leider bedeutet dies, dass die Entwickler selten genau wissen, was sich in dem Datensatz befindet. Und da die Maschine dazu neigt, mehrere Datenpunkte zusammenzuführen, wenn sie Ausgaben erzeugt, kann es die Fähigkeiten moderner Techniker übersteigen, einzelne Datenteile zu extrahieren oder zu modifizieren.

Margaret Mitchell, eine KI-Ethikexpertin, erzählt Technology Review des MIT, dass „OpenAI es nahezu unmöglich finden wird, die Daten von Einzelpersonen zu identifizieren und sie aus seinen Modellen zu entfernen.“

Um die Konformität zu erreichen, muss OpenAI nachweisen, dass es die zum Trainieren seiner Modelle verwendeten Daten mit Zustimmung der Benutzer erhalten hat – etwas, das dem Unternehmen gehört Forschung Papiere zeigen, ist nicht wahr – oder zeigen, dass sie überhaupt ein „berechtigtes Interesse“ daran hatten, die Daten zu löschen.

Lilian Edwards, Professorin für Internetrecht an der Newcastle University, sagte gegenüber MIT Technology Review, dass der Streit größer sei als nur die italienische Klage, und erklärte: „Die Verstöße von OpenAI sind so eklatant, dass dieser Fall wahrscheinlich vor dem Gerichtshof der USA landen wird Europäische Union, das höchste Gericht der EU.“

Dies bringt OpenAI in eine potenziell prekäre Position. Wenn es nicht in der Lage ist, einzelne Daten auf Benutzeranfrage zu identifizieren und zu entfernen oder Änderungen an Daten vorzunehmen, die Personen falsch darstellen, kann es sein, dass es seine ChatGPT-Produkte in Italien nach Ablauf der Frist vom 30. April nicht mehr betreiben kann.

Die Probleme des Unternehmens hören hier möglicherweise nicht auf, da die französischen, deutschen, irischen und EU-Regulierungsbehörden derzeit auch Maßnahmen zur Regulierung von ChatGPT erwägen.