Italien blockiert ChatGPT vorübergehend wegen Datenschutzbedenken


Italien ist das erste westliche Land, das solche Maßnahmen gegen den beliebten Chatbot mit künstlicher Intelligenz ergreift.

Die Datenschutzbehörde der italienischen Regierung hat die Software für künstliche Intelligenz (KI) ChatGPT wegen Datenschutzbedenken vorübergehend gesperrt.

Die Ankündigung vom Freitag machte Italien zum ersten westlichen Land, das solche Maßnahmen gegen den beliebten KI-Chatbot ergriff.

Die italienische Datenschutzbehörde bezeichnete ihr Vorgehen als vorläufig, „bis ChatGPT die Privatsphäre respektiert“. Seine Maßnahme besteht darin, das Unternehmen vorübergehend daran zu hindern, italienische Benutzerdaten zu speichern.

Der Watchdog sagte, der ChatGPT-Entwickler OpenAI habe keine rechtliche Grundlage, um „die Massenerfassung und -speicherung personenbezogener Daten zum Zweck des ‚Trainings‘ der dem Betrieb der Plattform zugrunde liegenden Algorithmen“ zu rechtfertigen.

Es verwies ferner auf eine Datenschutzverletzung am 20. März, als Benutzerkonversationen und Zahlungsinformationen kompromittiert wurden, ein Problem, das die US-Firma einem Fehler zuschrieb.

Seit der Einführung von ChatGPT hat es ein kometenhaftes Wachstum erlebt. Millionen von Menschen nutzen die Software für Aktivitäten, die von der Entwicklung von Architekturentwürfen über das Schreiben von Aufsätzen bis hin zum Verfassen von Nachrichten, Liedern, Romanen und Witzen reichen.

Es hat auch einen KI-Wettlauf unter anderen Technologieunternehmen und Risikokapitalgebern ausgelöst. Google bringt seinen eigenen Chatbot heraus, genannt Bardeund Investoren investieren Geld in alle Arten von KI-Projekten.

Doch Kritiker ärgern sich schon lange darüber, woher ChatGPT und seine Konkurrenten ihre Daten bekommen bzw. wie sie diese verarbeiten.

„Wir wissen eigentlich nicht, wie die Daten verwendet werden, weil der Öffentlichkeit nicht genügend Informationen gegeben werden“, sagte Ruta Liepina, KI-Stipendiatin an der Universität Bologna in Italien, gegenüber Al Jazeera.

„Gleichzeitig werden in der Europäischen Union viele neue Vorschriften vorgeschlagen, aber es wird darauf ankommen, wie sie durchgesetzt werden und wie stark die Unternehmen zusammenarbeiten, um Informationen bereitzustellen, die erforderlich sind, um besser zu verstehen, wie diese Technologien funktionieren arbeiten“, sagte Liepina.

Die KI-Systeme, die solche Chatbots antreiben, die als große Sprachmodelle bekannt sind, sind in der Lage, menschliche Schreibstile nachzuahmen, basierend auf der riesigen Fundgrube an digitalen Büchern und Online-Schriften, die sie aufgenommen haben.

Einige öffentliche Schulen und Universitäten auf der ganzen Welt haben die ChatGPT-Website wegen Plagiatsproblemen von Schülern in ihren lokalen Netzwerken blockiert, aber es war nicht klar, wie Italien sie auf landesweiter Ebene blockieren würde.

Es ist unwahrscheinlich, dass sich der Schritt auf Anwendungen von Unternehmen auswirkt, die bereits über Lizenzen mit OpenAI verfügen, um dieselbe Technologie zu verwenden, die den Chatbot antreibt, wie z. B. die Suchmaschine Bing von Microsoft.

Diese Woche unterzeichneten Hunderte von Experten und Persönlichkeiten aus der Industrie einen offenen Brief, in dem sie eine Pause bei der Entwicklung leistungsfähiger KI-Systeme forderten, und argumentierten, dass sie „tiefgreifende Risiken für die Gesellschaft und die Menschheit“ darstellen.

Der Brief wurde durch OpenAIs Veröffentlichung von GPT-4 in diesem Monat veranlasst, einer leistungsfähigeren Version seines Chatbots mit noch weniger Transparenz über seine Datenquellen.

Die italienische Aufsichtsbehörde forderte OpenAI auf, innerhalb von 20 Tagen zu melden, welche Maßnahmen es ergriffen hat, um die Vertraulichkeit der Benutzerdaten zu gewährleisten, oder es droht eine Geldstrafe von bis zu 22 Millionen US-Dollar oder 4 Prozent seines jährlichen weltweiten Umsatzes.

KI-Experten sagten, es sei wahrscheinlich, dass weitere Regierungen nachziehen und ähnliche Vorschriften erlassen würden.

„Ich denke, es könnte einige Folgemaßnahmen aus anderen Ländern geben, [especially] wenn die OpenAI-Firma keine weiteren Informationen darüber bereitstellt, wie der Algorithmus trainiert wird“, sagte Liepina.

Der CEO des in San Francisco ansässigen Unternehmens, Sam Altman, kündigte diese Woche an, dass er im Mai zu einer Reise durch sechs Kontinente aufbrechen werde, um mit Benutzern und Entwicklern über die Technologie zu sprechen.

Seine Reise wird einen Zwischenstopp in Brüssel einschließen, wo die Gesetzgeber der Europäischen Union weitreichende neue Regeln ausgehandelt haben, um risikoreiche KI-Tools einzuschränken.

Altman sagte, seine Zeit in Europa werde auch Stationen in Madrid, München, London und Paris beinhalten.

source-120

Leave a Reply