Was wissen KI-Chatbots über uns und mit wem teilen sie es?


KI-Chatbots sind nach technischen Maßstäben relativ alt, aber die neueste Generation – angeführt von ChatGPT von OpenAI und Bard von Google – ist weitaus leistungsfähiger als ihre Vorfahren, nicht immer aus positiven Gründen. Die jüngste Explosion in der KI-Entwicklung hat bereits Bedenken ausgelöst Fehlinformationen, Desinformation, Plagiat und maschinell generiert Malware. Welche Probleme könnte die generative KI für die Privatsphäre des durchschnittlichen Internetnutzers darstellen? Die Antwort hängt laut Experten weitgehend davon ab, wie diese Bots trainiert werden und wie viel wir planen, mit ihnen zu interagieren

Um menschenähnliche Interaktionen zu replizieren, werden KI-Chatbots mit großen Datenmengen trainiert, von denen ein erheblicher Teil aus Repositories wie z Gemeinsames Crawlen. Wie der Name schon sagt, hat Common Crawl Jahre und Petabytes an Daten angehäuft, einfach durch das Crawlen und Scrapen des offenen Webs. „Diese Modelle trainieren mit großen Datensätzen öffentlich zugänglicher Daten im Internet“, sagte Megha Srivastava, Doktorandin an der Informatikabteilung von Stanford und ehemalige KI-Mitarbeiterin bei Microsoft Research. Auch wenn ChatGPT und Bard ein sogenanntes “gefiltert” Teil der Daten von Common Crawl macht es die schiere Größe des Modells “unmöglich für irgendjemanden, die Daten irgendwie durchzusehen und zu bereinigen”, so Srivastava.

Entweder durch Ihre eigene Unachtsamkeit oder die schlechten Sicherheitspraktiken eines Drittanbieters könnten sich gerade in einer entlegenen Ecke des Internets befinden. Auch wenn es für den durchschnittlichen Benutzer schwierig sein mag, darauf zuzugreifen, ist es möglich, dass Informationen in ein Trainingsset geschabt wurden und von diesem Chatbot später wieder hochgewürgt werden können. Und ein Bot, der die tatsächlichen Kontaktinformationen einer Person ausspuckt, ist keineswegs ein theoretisches Problem. Bloomberg Kolumnist Dave Lee hat auf Twitter gepostet, dass, als jemand ChatGPT aufforderte, auf der verschlüsselten Messaging-Plattform Signal zu chatten, seine genaue Telefonnummer angegeben wurde. Diese Art der Interaktion ist wahrscheinlich ein Grenzfall, aber die Informationen, auf die diese Lernmodelle Zugriff haben, sind dennoch eine Überlegung wert. „Es ist unwahrscheinlich, dass OpenAI spezifische Informationen wie Gesundheitsdaten sammeln und sie Einzelpersonen zuordnen möchte, um seine Modelle zu trainieren“, sagte David Hoelzer, ein Mitarbeiter der Sicherheitsorganisation SANS Institute, gegenüber Engadget. „Aber könnte es versehentlich da drin sein? Absolut.”

Open AI, das Unternehmen hinter ChatGPT, hat nicht geantwortet, als wir gefragt haben, welche Maßnahmen es zum Schutz der Privatsphäre ergreift oder wie es mit personenbezogenen Daten umgeht, die möglicherweise in seine Trainingssets geschabt werden. Also haben wir das Nächstbeste getan und ChatGPT selbst gefragt. Es teilte uns mit, dass es „so programmiert ist, dass ethische und rechtliche Standards zum Schutz der Privatsphäre und personenbezogenen Daten der Benutzer eingehalten werden“ und dass es „keinen Zugriff auf personenbezogene Daten hat, es sei denn, sie werden mir zur Verfügung gestellt“. Google seinerseits teilte Engadget mit, dass es ähnliche Leitplanken in Bard programmiert habe, um die Weitergabe personenbezogener Daten während Gesprächen zu verhindern.

Hilfreicherweise brachte ChatGPT den zweiten großen Vektor zur Sprache, durch den generative KI ein Datenschutzrisiko darstellen könnte: die Nutzung der Software selbst – entweder über Informationen, die direkt in Chatlogs geteilt werden, oder über Geräte- und Benutzerinformationen, die vom Dienst während der Nutzung erfasst werden. OpenAIs Datenschutz-Bestimmungen zitiert mehrere Kategorien von Standardinformationen, die es über Benutzer sammelt, die identifizierbar sein könnten, und beim Start warnt ChatGPT davor, dass Konversationen von seinen KI-Trainern überprüft werden können, um die Systeme zu verbessern.

Googles Bard hingegen hat keine eigenständige Datenschutzrichtlinie, sondern verwendet stattdessen die pauschales Datenschutzdokument die von anderen Google-Produkten geteilt werden (und die zufälligerweise enorm breit gefächert sind). Gespräche mit Bard müssen nicht im Google-Konto des Benutzers gespeichert werden, und Benutzer können die Konversationen über Google löschen, teilte das Unternehmen Engadget mit. „Um das Vertrauen der Benutzer aufzubauen und aufrechtzuerhalten, müssen sie sehr transparent in Bezug auf Datenschutzrichtlinien und Datenschutzverfahren am Frontend sein“, sagte Rishi Jaitly, Professor und Distinguished Humanities Fellow an der Virginia Tech, gegenüber Engadget.

Trotz der Aktion „Gespräche löschen“ werden Ihre Daten laut den Angaben des Dienstes nicht wirklich gelöscht, wenn Sie auf „Gespräche löschen“ drücken FAQ-Seite, noch ist OpenAI in der Lage, bestimmte Eingabeaufforderungen zu löschen. Während das Unternehmen Benutzer davon abhält, vertrauliche Informationen zu teilen, besteht die einzige Möglichkeit, personenbezogene Daten, die ChatGPT bereitgestellt werden, zu entfernen, darin, sie zu entfernen Lösche deinen Account, die das Unternehmen sagt, wird alle zugehörigen Daten dauerhaft entfernen.

Hoelzer sagte gegenüber Engadget, er mache sich keine Sorgen, dass ChatGPT einzelne Gespräche aufnimmt, um zu lernen. Aber diese Gesprächsdaten werden irgendwo gespeichert, und daher wird ihre Sicherheit zu einem vernünftigen Anliegen. ChatGPT wurde übrigens im März kurzzeitig offline genommen, weil ein Programmierfehler Informationen über den Chatverlauf der Nutzer preisgab. Zu diesem frühen Zeitpunkt ihres breiten Einsatzes ist unklar, ob Chatprotokolle von dieser Art von KI zu wertvollen Zielen für böswillige Akteure werden.

Für die absehbare Zukunft ist es am besten, diese Art von Chatbots mit dem gleichen Misstrauen zu behandeln, das Benutzer jedem anderen technischen Produkt gegenüber behandeln sollten. „Ein Benutzer, der mit diesen Modellen spielt, sollte mit der Erwartung eintreten, dass jede Interaktion, die er mit dem Modell hat“, sagte Srivastava gegenüber Engadget, „es für Open AI oder eines dieser anderen Unternehmen ein faires Spiel ist, es zu seinem Vorteil zu nutzen.“

Alle von Engadget empfohlenen Produkte werden von unserem Redaktionsteam unabhängig von unserer Muttergesellschaft ausgewählt. Einige unserer Geschichten enthalten Affiliate-Links. Wenn Sie etwas über einen dieser Links kaufen, erhalten wir möglicherweise eine Affiliate-Provision. Alle Preise sind zum Zeitpunkt der Veröffentlichung korrekt.

source-115

Leave a Reply