Deutsche Aufsichtsbehörden leiten Untersuchung zur DSGVO-Konformität von ChatGPT ein

OpenAI steht bei seinem Bestreben, weiterhin Geschäfte in der Europäischen Union zu tätigen, vor einer weiteren Hürde, da die deutschen Behörden eine Untersuchung der Datenschutzpraktiken und der DSGVO-Konformität des Unternehmens eingeleitet haben.

Als gemeldet von AFP verlangen Regulierungsbehörden in Deutschland Antworten zu den Absichten und Möglichkeiten des Unternehmens, die strengen Datenschutzgesetze einzuhalten, die in der Datenschutz-Grundverordnung (DSGVO) der EU verankert sind.

Marit Hansen, Beauftragte für das nördliche Bundesland Schleswig-Holstein, sagte gegenüber AFP-Reportern, dass die Regulierungsbehörden in Deutschland „wissen wollen, ob eine Datenschutz-Folgenabschätzung durchgeführt wurde und ob die Datenschutzrisiken unter Kontrolle sind“. Sie fügten hinzu, dass das Land OpenAI auch um „Informationen zu Themen, die sich aus der europäischen Datenschutz-Grundverordnung (DSGVO) ergeben“ erbitte.

Obwohl diese Nachricht nicht überraschend kommt – deutsche Überwachungsgruppen haben kürzlich eine weitere Prüfung empfohlen – trägt sie zu einer bereits komplexen Situation für OpenAI bei.

Das Unternehmen hat sein GPT-4-Modell Mitte März veröffentlicht. In der kurzen Zeit seither wurde OpenAI zunehmend von Aufsichtsbehörden, insbesondere in Europa, geprüft. Italien war die erste westliche Nation, die ein Verbot der Produkte erließ. Gleichzeitig klären das Unternehmen und die lokalen Aufsichtsbehörden, ob OpenAI die DSGVO und die italienischen Datenschutzgesetze einhalten kann.

Verwandt: OpenAI hat bis zum 30. April Zeit, die EU-Gesetze einzuhalten – „nahezu unmöglich“, sagen Experten

Es ist derzeit unklar, wie OpenAI zu reagieren gedenkt – Anfragen nach Kommentaren wurden nicht sofort beantwortet – aber die deutschen Regulierungsbehörden haben signalisiert, dass sie erwarten, dass das Unternehmen ihre Anfragen bis spätestens 11. Juni beantwortet.

Im Wesentlichen beziehen sich die von Regulierungsbehörden in ganz Europa aufgeworfenen Kernprobleme auf die Trainingsdaten, die zum Erstellen der GPT-KI-Modelle verwendet werden. Derzeit können Benutzer weder die Einbeziehung ihrer Daten ablehnen noch die Modelle korrigieren, wenn sie einen Fehler machen.

Gemäß der DSGVO haben Einzelpersonen das Recht, ihre Daten ändern zu lassen, um deren Richtigkeit wiederzugeben, oder vollständig aus den Systemen entfernt zu werden.

Mitten in der laufenden Erzählung stehen die vielen OpenAI-Benutzer, insbesondere diejenigen, die Premium-Abonnementgebühren für den persönlichen und geschäftlichen Zugriff auf die GPT-API des Unternehmens zahlen.

Kryptowährungshändler und -analysten, die fortschrittliche Bots auf der API selbst aufbauen, oder diejenigen, die auf der API basierende Drittanbieter-Apps verwenden, um den Markt zu prognostizieren oder autonom in der EU zu handeln, könnten in verbindliche Rechtsstreitigkeiten oder umfassende Verbote verwickelt werden.

Wenn ein solches Verbot in Kraft tritt, könnte es jedes Unternehmen oder jede Person, die diese Bots für den Handel und die Analyse von Kryptowährungen verwendet – einschließlich Börsen, Nachrichtenseiten und Blockchain-Firmen – dazu zwingen, solche Operationen außerhalb der EU durchzuführen.