Europäische Datenschutzbehörden starten Task Force zu ChatGPT


Die europäischen Datenschutzbehörden haben am Donnerstag (13. April) beschlossen, eine spezielle Task Force einzurichten, um die Datenschutzbedenken im Zusammenhang mit dem berühmtesten Chatbot der Welt anzugehen.

Die Entscheidung wurde während einer Sitzung des Europäischen Datenschutzausschusses getroffen, einem Gremium, das alle europäischen Datenschutzbehörden versammelt, um die Durchsetzung der EU-Datenschutzvorschriften zu koordinieren und zu straffen.

Am 31. März, Italiens Garantie (Garant) personenbezogener Daten hat OpenAI, dem Anbieter von ChatGPT, die vorübergehende Aussetzung der Verarbeitung personenbezogener Daten von in Italien ansässigen Personen angeordnet und parallel dazu eine Untersuchung zu möglichen Verstößen gegen die Datenschutz-Grundverordnung eingeleitet.

Die Entscheidung der italienischen Datenschutzbehörde löste weltweit Reaktionen auf die datenschutzrechtlichen Implikationen großer Sprachmodelle wie ChatGPT aus. Europäische Behörden wie die CNIL in Frankreich Ermittlungen eingeleitet in das System der künstlichen Intelligenz nach ähnlichen Beschwerden.

Im Vorfeld der Vorstandssitzung am Donnerstag, der spanischen Datenschutzbehörde angefordert dass die Datenschutzbedenken rund um ChatGPT auf die Tagesordnung gesetzt werden, um koordinierte Entscheidungen auf europäischer Ebene zu treffen.

Um eine harmonisierte Anwendung der Vorschriften zu gewährleisten, haben die europäischen Datenbehörden vereinbart, eine Task Force einzurichten, die sich der Zusammenarbeit und dem Informationsaustausch über mögliche Durchsetzungsmaßnahmen widmet.

Unterdessen, am Mittwoch, der Garantie gab OpenAI bis zum 30. April, um ChatGPT an das europäische Datenschutzregime anzupassen und eine Reihe von Korrekturmaßnahmen vorzuschlagen.

Die italienische Behörde forderte das Technologieunternehmen auf, seine Datenschutzerklärung zur Verfügung zu stellen, in der erläutert wird, wie die Daten der Benutzer für das Funktionieren von ChatGPT verwendet werden.

OpenAI muss auch erklären, auf welcher Rechtsgrundlage es personenbezogene Daten verarbeitet, um seine Algorithmen zu trainieren, was die Form einer von den Benutzern eingeholten Einwilligung oder eines berechtigten Interesses annehmen kann.

Noch herausfordernder ist, dass das KI-Unternehmen Tools für alle, ob Benutzer oder nicht, zur Verfügung stellen muss, die eine Korrektur ihrer personenbezogenen Daten oder sogar ihre Löschung verlangen möchten, wenn eine Korrektur technisch unmöglich ist.

Jeder soll auch verlangen können, dass seine Daten nicht in das KI-Modell eingespeist werden.

Bis zum 31. Mai muss OpenAI der italienischen Aufsichtsbehörde einen Plan vorschlagen, wie die Altersüberprüfung seiner Benutzer bis spätestens 30. September umgesetzt werden kann, um den Zugang von Kindern unter 13 Jahren und Minderjährigen ohne Zustimmung zu verhindern ihre Eltern.

Endlich, das Garantie will, dass das amerikanische Unternehmen eine Informationskampagne über Radio, Fernsehen, Zeitungen und das Internet durchführt, um die Menschen darüber zu informieren, wie sie ihre persönlichen Daten verwenden, um ihre künstliche Intelligenz zu trainieren.

[Edited by Nathalie Weatherald]



source-127

Leave a Reply