„KI-Freundinnen“ sind ein Datenschutz-Albtraum


Sie sollten den Antworten, die Ihnen ein Chatbot sendet, nicht vertrauen. Und Sie sollten ihm wahrscheinlich auch Ihre persönlichen Daten nicht anvertrauen. Dies gilt laut neuer Forschung insbesondere für „KI-Freundinnen“ oder „KI-Freunde“.

Eine Analyse von 11 sogenannten Romantik- und Begleit-Chatbots, veröffentlicht am Mittwoch von der Mozilla Foundation, hat eine ganze Reihe von Sicherheits- und Datenschutzbedenken bei den Bots festgestellt. Insgesamt sammeln die Apps, die mehr als 100 Millionen Mal auf Android-Geräte heruntergeladen wurden, riesige Mengen an Daten von Menschen; Verwenden Sie Tracker, die Informationen an Google, Facebook und Unternehmen in Russland und China senden. Benutzern erlauben, schwache Passwörter zu verwenden; und es mangelt ihnen an Transparenz über ihre Eigentumsverhältnisse und die KI-Modelle, die sie antreiben.

Seit OpenAI im November 2022 ChatGPT auf die Welt losgelassen hat, sind Entwickler bestrebt, große Sprachmodelle bereitzustellen und Chatbots zu erstellen, mit denen Menschen interagieren und für deren Abonnement sie bezahlen können. Die Mozilla-Forschung bietet einen Einblick in die Art und Weise, wie dieser Goldrausch die Privatsphäre der Menschen vernachlässigt haben könnte, und in die Spannungen zwischen neuen Technologien und der Art und Weise, wie sie Daten sammeln und nutzen. Es zeigt auch, wie die Chat-Nachrichten von Personen von Hackern missbraucht werden könnten.

Viele „KI-Freundinnen“- oder romantische Chatbot-Dienste sehen ähnlich aus. Sie zeigen oft KI-generierte Bilder von Frauen, die sexualisiert sein können oder mit provokanten Botschaften einhergehen. Die Forscher von Mozilla untersuchten eine Vielzahl von Chatbots, darunter große und kleine Apps, von denen einige vorgeben, „Freundinnen“ zu sein. Andere bieten Menschen Unterstützung durch Freundschaft oder Intimität oder ermöglichen Rollenspiele und andere Fantasien.

„Diese Apps sind darauf ausgelegt, eine Menge persönlicher Informationen zu sammeln“, sagt Jen Caltrider, Projektleiterin des Privacy Not Included-Teams von Mozilla, das die Analyse durchgeführt hat. „Sie drängen dich zu Rollenspielen, viel Sex, viel Intimität, viel Teilen.“ Screenshots des EVA AI-Chatbots zeigen beispielsweise den Text „Ich liebe es, wenn du mir deine Fotos schickst.“ und Stimme“ und fragen, ob jemand „bereit ist, alle Ihre Geheimnisse und Wünsche zu teilen“.

Laut Caltrider gibt es mehrere Probleme mit diesen Apps und Websites. Bei vielen der Apps sei möglicherweise nicht klar, welche Daten sie mit Dritten teilen, wo sie ansässig sind oder wer sie erstellt, sagt Caltrider und fügt hinzu, dass einige es Benutzern ermöglichen, schwache Passwörter zu erstellen, während andere nur wenige Informationen über die KI liefern, die sie verwenden verwenden. Die analysierten Apps hatten alle unterschiedliche Anwendungsfälle und Schwächen.

Nehmen Sie Romantic AI, einen Dienst, mit dem Sie „Ihre eigene KI-Freundin erstellen“ können. Werbebilder auf der Homepage zeigen einen Chatbot, der eine Nachricht sendet: „Habe gerade neue Dessous gekauft.“ Willst du es sehen?“ Die Datenschutzdokumente der App laut Mozilla-Analyse, sagen, es werde die Daten von Menschen nicht verkaufen. Als die Forscher die App jedoch testeten, stellten sie fest, dass sie „innerhalb einer Minute nach der Nutzung 24.354 Werbetracker verschickte“. Romantische KI reagierte, wie die meisten in Mozillas Studie hervorgehobenen Unternehmen, nicht auf WIRED Bitte um Stellungnahme. Andere überwachte Apps verfügten über Hunderte von Trackern.

Im Allgemeinen, sagt Caltrider, sei den Apps nicht klar, welche Daten sie teilen oder verkaufen dürfen oder wie sie einige dieser Informationen genau verwenden. „Die rechtlichen Unterlagen waren vage, schwer verständlich und nicht sehr spezifisch – eine Art Standardkram“, sagt Caltrider und fügt hinzu, dass dies möglicherweise das Vertrauen der Menschen in die Unternehmen schmälern könnte.

source-114

Leave a Reply