Slack hat Ihre Nachrichten gescannt, um seine KI-Modelle zu trainieren


Slack trainiert maschinelle Lernmodelle anhand von Benutzernachrichten, Dateien und anderen Inhalten ohne ausdrückliche Genehmigung. Bei der Schulung handelt es sich um ein Opt-out-Training, d. h. Ihre privaten Daten werden standardmäßig gelöscht. Erschwerend kommt hinzu, dass Sie den Slack-Administrator Ihrer Organisation (Personalabteilung, IT usw.) bitten müssen, dem Unternehmen eine E-Mail mit der Aufforderung zu senden, damit aufzuhören. (Sie können es nicht selbst tun.) Willkommen auf der dunklen Seite des neuen Goldrauschs bei KI-Trainingsdaten.

Corey Quinnein leitender Angestellter der DuckBill Group, gesichtet die Politik in einem Klappentext in Datenschutzgrundsätze von Slack und darüber auf X gepostet (über PCMag). Der Abschnitt lautet (Hervorhebung durch uns): „An KI/ML-Modelle entwickelnunsere Systeme Analysieren Sie Kundendaten (z.B Nachrichten, Inhalte und Dateien) an Slack übermittelt sowie Andere Informationen (einschließlich Nutzungsinformationen), wie in unserer Datenschutzrichtlinie und in Ihrer Kundenvereinbarung definiert.“

Als Reaktion auf Bedenken hinsichtlich dieser Praxis veröffentlichte Slack eine am Freitagabend, um zu klären, wie die Daten ihrer Kunden verwendet werden. Nach Angaben des Unternehmens werden Kundendaten nicht zum Trainieren von generativen KI-Produkten von Slack verwendet – wofür das Unternehmen auf LLMs von Drittanbietern angewiesen ist –, sondern werden in seine Modelle für maschinelles Lernen für Produkte „wie Kanal- und Emoji-Empfehlungen und Suchergebnisse“ eingespeist. Für diese Anwendungen heißt es in dem Beitrag: „Die traditionellen ML-Modelle von Slack verwenden anonymisierte, aggregierte Daten und greifen nicht auf Nachrichteninhalte in DMs, privaten Kanälen oder öffentlichen Kanälen zu.“

Ein Salesforce-Sprecher bekräftigte dies in einer Erklärung gegenüber Engadget und sagte außerdem: „Wir bauen oder trainieren diese Modelle nicht so, dass sie Kundendaten lernen, sich merken oder reproduzieren können.“

Der Opt-out-Prozess erfordert, dass Sie alle Anstrengungen unternehmen, um Ihre Daten zu schützen. In der Datenschutzerklärung heißt es: „Um sich abzumelden, bitten Sie Ihre Organisations- oder Workspace-Inhaber oder Haupteigentümer, unser Customer Experience-Team unter [email protected] mit Ihrer Workspace-/Organisations-URL und der Betreffzeile „Slack Global Model Opt-out Request“ zu kontaktieren .’ Wir werden Ihre Anfrage bearbeiten und antworten, sobald die Abmeldung abgeschlossen ist.“

Das Unternehmen antwortete zu Quinns Nachricht auf X: „Zur Klarstellung: Slack verfügt über maschinelle Lernmodelle auf Plattformebene für Dinge wie Kanal- und Emoji-Empfehlungen und Suchergebnisse. Und ja, Kunden können ihre Daten von der Schulung dieser (nicht generativen) ML-Modelle ausschließen.“

Es ist unklar, wie lange es her ist, dass das zu Salesforce gehörende Unternehmen den Leckerbissen in seine Bedingungen eingeschmuggelt hat. Es ist bestenfalls irreführend zu sagen, dass Kunden sich abmelden können, wenn zu den „Kunden“ nicht die Mitarbeiter gehören, die innerhalb einer Organisation arbeiten. Sie müssen denjenigen, der in ihrem Unternehmen für den Slack-Zugriff zuständig ist, darum bitten – und ich hoffe, dass er dem nachkommt.

Inkonsistenzen in Slacks Datenschutzrichtlinien tragen zur Verwirrung bei. In einem Abschnitt heißt es: „Bei der Entwicklung von KI-/ML-Modellen oder der sonstigen Analyse von Kundendaten kann Slack nicht auf die zugrunde liegenden Inhalte zugreifen. Wir verfügen über verschiedene technische Maßnahmen, die dies verhindern.“ Die Trainingsrichtlinie für das maschinelle Lernmodell scheint dieser Aussage jedoch zu widersprechen und lässt viel Raum für Verwirrung.

Darüber hinaus die Webseite von Slack Marketing Auf seinen erstklassigen generativen KI-Tools steht: „Arbeiten Sie ohne Sorgen. Ihre Daten sind Ihre Daten. Wir verwenden es nicht, um Slack AI zu trainieren. Alles läuft auf der sicheren Infrastruktur von Slack und erfüllt die gleichen Compliance-Standards wie Slack selbst.“

In diesem Fall spricht das Unternehmen von seinen erstklassigen generativen KI-Tools, getrennt von den Modellen des maschinellen Lernens, mit denen es ohne ausdrückliche Genehmigung trainiert. Allerdings da PCMag stellt fest, dass die Behauptung, alle Ihre Daten seien vor KI-Training sicher, bestenfalls eine höchst irreführende Aussage ist, wenn das Unternehmen offenbar selbst entscheiden kann, welche KI-Modelle diese Aussage abdeckt.

Update, 18. Mai 2024, 15:24 Uhr ET: Diese Geschichte wurde aktualisiert und enthält nun zusätzliche Informationen von Slack, das eine veröffentlicht hat Blogeintrag Erläuterung seiner Praktiken als Reaktion auf die Bedenken der Gemeinschaft.



source-115

Leave a Reply