OpenAI bietet Abhilfemaßnahmen zur Lösung des ChatGPT-Verbots in Italien an


LONDON (AP) – Das Unternehmen hinter ChatGPT wird Maßnahmen vorschlagen, um Datenschutzbedenken auszuräumen, die ein vorübergehendes italienisches Verbot des Chatbots mit künstlicher Intelligenz ausgelöst haben, sagten die Aufsichtsbehörden am Donnerstag.

Die italienische Datenschutzbehörde Garante hat letzte Woche den beliebten Chatbot von OpenAI aus San Francisco blockiertdie ihm auferlegt, die Verarbeitung personenbezogener Daten italienischer Nutzer vorübergehend einzustellen, während ein möglicher Verstoß gegen die Datenschutzbestimmungen der Europäischen Union untersucht wird.

Experten sagten, es sei der erste derartige Fall einer Demokratie, die ein landesweites Verbot einer Mainstream-KI-Plattform verhängt.

In einem Videoanruf am späten Mittwoch zwischen den Kommissaren der Aufsichtsbehörde und Führungskräften von OpenAI, darunter CEO Sam Altman, versprach das Unternehmen, Maßnahmen zur Ausräumung der Bedenken festzulegen. Diese Rechtsbehelfe wurden nicht im Detail beschrieben.

Die italienische Aufsichtsbehörde sagte, sie wolle die Entwicklung von KI nicht behindern, betonte jedoch gegenüber OpenAI, wie wichtig es sei, die strengen Datenschutzbestimmungen der EU mit 27 Nationen einzuhalten.

Die Regulierungsbehörden verhängten das Verbot, nachdem die Nachrichten und Zahlungsinformationen einiger Benutzer anderen zugänglich gemacht wurden. Sie stellten auch in Frage, ob es eine Rechtsgrundlage für OpenAI gibt, um riesige Datenmengen zu sammeln, die zum Trainieren der ChatGPT-Algorithmen verwendet werden, und äußerten Bedenken, dass das System manchmal falsche Informationen über Einzelpersonen generieren könnte.

Sogenannte generative KI-Technologie wie ChatGPT wird mit riesigen Datenpools, einschließlich digitaler Bücher und Online-Schriften, „trainiert“ und ist in der Lage, Text zu generieren, der menschliche Schreibstile nachahmt.

Diese Systeme haben in der Tech-Welt und darüber hinaus für Aufsehen gesorgt, aber sie haben auch Befürchtungen bei Beamten, Aufsichtsbehörden und sogar Informatikern und Führungskräften der Technologiebranche geweckt über mögliche ethische und gesellschaftliche Risiken.

Andere Regulierungsbehörden in Europa und anderswo haben begonnen, nach Italiens Vorgehen mehr Aufmerksamkeit zu schenken.

Die irische Datenschutzkommission sagte, sie werde „mit der italienischen Regulierungsbehörde Kontakt aufnehmen, um die Grundlage für ihre Maßnahmen zu verstehen, und wir werden uns in dieser Angelegenheit mit allen EU-Datenschutzbehörden abstimmen.“

Die französische Datenschutzbehörde CNIL sagte, sie führe Ermittlungen durch, nachdem sie zwei Beschwerden über ChatGPT erhalten habe. Kanadas Datenschutzbeauftragte hat ebenfalls eine Untersuchung eingeleitet in OpenAI ein, nachdem sie eine Beschwerde über die mutmaßliche „Erhebung, Verwendung und Offenlegung personenbezogener Daten ohne Zustimmung“ erhalten haben.

In einem Blogbeitrag warnte das britische Information Commissioner’s Office diese Woche, dass „Organisationen, die generative KI entwickeln oder einsetzen, ihre Datenschutzverpflichtungen von Anfang an berücksichtigen sollten“ und Systeme mit Datenschutz als Standard entwerfen sollten.

„Dies ist nicht optional – wenn Sie personenbezogene Daten verarbeiten, ist dies das Gesetz“, sagte das Büro.

Als offensichtliche Reaktion auf die Bedenken veröffentlichte OpenAI am Mittwoch einen Blogbeitrag, in dem sein Ansatz zur KI-Sicherheit dargelegt wurde. Das Unternehmen sagte, es arbeite daran, personenbezogene Daten nach Möglichkeit aus Trainingsdaten zu entfernen, seine Modelle zu verfeinern, um Anfragen nach personenbezogenen Daten von Privatpersonen abzulehnen, und auf Anfragen zur Löschung personenbezogener Daten aus seinen Systemen zu reagieren.

source-123

Leave a Reply