„Keine Entschuldigung“ für KI-Entwickler, den Datenschutz falsch zu verstehen, warnt die britische Datenregulierungsbehörde


KI-Entwickler haben „keine Entschuldigung“ dafür, den Datenschutz falsch zu verstehen, sagte einer der Leiter der britischen Datenregulierungsbehörde und warnte diejenigen, die sich nicht an das Datenschutzgesetz halten, mit Konsequenzen.

Das Information Commissioner’s Office (ICO) setzt den Datenschutz im Vereinigten Königreich durch. Inmitten des explosionsartigen Interesses an generativer KI, insbesondere großen Sprachmodellen wie dem, das ChatGPT von OpenAI antreibt, warnte Stephen Almond, Executive Director of Regulatory Risk bei ICO, LLMs vor einem Risiko für die Datensicherheit.

In einem Blogbeitrag argumentierte er, es sei an der Zeit, „einen Schritt zurückzutreten und darüber nachzudenken, wie personenbezogene Daten verwendet werden“.

Er merkte an, dass Sam Altman, der CEO des ChatGPT-Erfinders OpenAI, selbst seine eigenen Sorgen über KI-Fortschritte und deren Bedeutung geäußert hat.

Und unter Bezugnahme auf einen letzte Woche veröffentlichten Brief, der von Technologieführern und KI-Experten unterzeichnet wurde und in dem eine sofortige Unterbrechung der KI-Entwicklung gefordert wurde, erzählte Almond von einem Gespräch, das er selbst mit ChatGPT geführt hatte.

„Generative KI kann wie jede andere Technologie Risiken für den Datenschutz darstellen, wenn sie nicht verantwortungsbewusst eingesetzt wird“, schrieb der Chatbot.

„Und es braucht nicht viel Vorstellungskraft, um das Potenzial für ein Unternehmen zu erkennen, eine hart erarbeitete Beziehung zu Kunden durch einen schlechten Einsatz von generativer KI schnell zu beschädigen“, sagte Almond.

Er fügte hinzu, dass die Technologie zwar neu sei, die Grundsätze des Datenschutzrechts jedoch dieselben seien.

8 Fragen an KI-Entwickler

„Organisationen, die generative KI entwickeln oder verwenden, sollten ihre Datenschutzverpflichtungen von Anfang an berücksichtigen und einen Datenschutz durch Design und durch Voreinstellungen verfolgen“, sagte er und fügte hinzu, dass dies „nicht optional ist … es ist das Gesetz“.

Anschließend listete er acht Fragen auf, die sich KI-Entwickler, die personenbezogene Daten verwenden, stellen müssen, und fügte hinzu, dass das ICO sie stellen und handeln werde, wenn Organisationen das Gesetz nicht befolgen.

Die Fragen sind:

  • Was ist Ihre Rechtsgrundlage für die Verarbeitung personenbezogener Daten?
  • Sind Sie ein Verantwortlicher, ein gemeinsam Verantwortlicher oder ein Auftragsverarbeiter?
  • Haben Sie eine Datenschutz-Folgenabschätzung (DSFA) erstellt?
  • Wie sorgen Sie für Transparenz?
  • Wie mindern Sie Sicherheitsrisiken?
  • Wie werden Sie unnötige Verarbeitung einschränken?
  • Wie werden Sie individuellen Rechteanfragen nachkommen?
  • Werden Sie generative KI verwenden, um ausschließlich automatisierte Entscheidungen zu treffen?

„Es kann wirklich keine Entschuldigung dafür geben, die Auswirkungen der generativen KI auf den Datenschutz falsch zu verstehen“, sagte er und warnte davor, dass seine Organisation „hart arbeiten“ werde, um sicherzustellen, dass Organisationen die Dinge richtig machen.

source-121

Leave a Reply