KI-Chatbots können Ihre persönlichen Daten anhand Ihrer Eingaben erraten


Die Art wie du Gespräche können viel über Sie verraten – insbesondere, wenn Sie mit einem Chatbot sprechen. Neue Forschungsergebnisse zeigen, dass Chatbots wie ChatGPT viele vertrauliche Informationen über die Personen, mit denen sie chatten, ableiten können, selbst wenn das Gespräch völlig banal ist.

Das Phänomen scheint auf die Art und Weise zurückzuführen zu sein, wie die Algorithmen der Modelle mit großen Mengen an Webinhalten trainiert werden. Dies ist ein wesentlicher Grund dafür, dass sie funktionieren, was es wahrscheinlich schwierig macht, es zu verhindern. „Es ist nicht einmal klar, wie man dieses Problem beheben kann“, sagt er Martin Vechev, ein Informatikprofessor an der ETH Zürich in der Schweiz, der die Forschung leitete. „Das ist sehr, sehr problematisch.“

Vechev und sein Team fanden heraus, dass die großen Sprachmodelle, die fortschrittlichen Chatbots zugrunde liegen, aus Gesprächen, die harmlos erscheinen, präzise auf eine alarmierende Menge persönlicher Informationen über Benutzer schließen können – einschließlich ihrer Rasse, ihres Standorts, ihres Berufs und mehr.

Vechev sagt, dass Betrüger die Fähigkeit von Chatbots, sensible Informationen über eine Person zu erraten, nutzen könnten, um sensible Daten von ahnungslosen Benutzern abzugreifen. Er fügt hinzu, dass die gleiche zugrunde liegende Fähigkeit eine neue Ära der Werbung ankündigen könnte, in der Unternehmen von Chabots gesammelte Informationen nutzen, um detaillierte Benutzerprofile zu erstellen.

Einige der Unternehmen, die hinter leistungsstarken Chatbots stehen, sind für ihren Gewinn auch stark auf Werbung angewiesen. „Sie könnten es bereits tun“, sagt Vechev.

Die Zürcher Forscher testeten Sprachmodelle, die von OpenAI, Google, Meta und Anthropic entwickelt wurden. Sie sagen, sie hätten alle Unternehmen auf das Problem aufmerksam gemacht. OpenAI, Google und Meta reagierten nicht sofort auf eine Bitte um einen Kommentar. Anthropisch bezeichnet es Datenschutzrichtliniedie besagt, dass keine personenbezogenen Daten gesammelt oder „verkauft“ werden.

„Das wirft sicherlich die Frage auf, wie viele Informationen über uns wir versehentlich in Situationen preisgeben, in denen wir vielleicht Anonymität erwarten würden“, sagt er Florian Tramerein Assistenzprofessor ebenfalls an der ETH Zürich, der nicht an der Arbeit beteiligt war, aber letzte Woche auf einer Konferenz Details gesehen hat.

Tramèr sagt, es sei ihm unklar, wie viele persönliche Informationen auf diese Weise abgeleitet werden könnten, er spekuliert jedoch, dass Sprachmodelle eine wirksame Hilfe bei der Aufdeckung privater Informationen sein könnten. „Es gibt wahrscheinlich einige Hinweise, die LLMs besonders gut finden können, und andere, bei denen die menschliche Intuition und Priorisierung viel besser sind“, sagt er.

source-114

Leave a Reply