X bestätigt, dass es die Suchanfragen von Taylor Swift blockiert hat, um „der Sicherheit Priorität einzuräumen“


X hat bestätigt, dass es Nutzer daran hindert, nach Taylor Swifts Namen zu suchen, nachdem diese Woche auf der Plattform pornografische Deepfakes des Künstlers im Umlauf waren. Besuchern der Website fiel am Samstag auf, dass einige Suchanfragen, die Swifts Namen enthielten, nur eine Fehlermeldung zurückgaben. In einer Stellungnahme zum Wallstreet Journal Am Samstagabend sagte Joe Benarroch, Leiter des Geschäftsbetriebs von X: „Dies ist eine vorübergehende Maßnahme und wird mit größter Vorsicht durchgeführt, da wir der Sicherheit in dieser Angelegenheit Priorität einräumen.“ Dieser Schritt erfolgt Tage, nachdem das Problem erstmals bekannt wurde.

Der Umgang von X mit dem Thema von Anfang an hat Kritik hervorgerufen, weil es langsam sei, die Verbreitung nicht einvernehmlicher, sexuell eindeutiger Bilder einzudämmen. Nachdem die Bilder am Mittwoch viral gingen, nahmen Swifts Fans die Sache selbst in die Hand, um ihre Sichtbarkeit einzuschränken und sie entfernen zu lassen, indem sie die Konten, die die Bilder geteilt hatten, massenhaft meldeten und die Hashtags rund um den Sänger mit positiven Inhalten überschwemmten. NBC-Nachrichten Anfang der Woche berichtet. Viele der beleidigenden Konten wurden später gesperrt, allerdings erst, nachdem sie in einigen Fällen millionenfach gesehen worden waren. Der Rand berichtete am Donnerstag, dass ein Beitrag mehr als 45 Millionen Mal aufgerufen wurde.

In einer Erklärung, die später am Tag auf seiner Plattform veröffentlicht wurde, sagte X: „Das Posten von Bildern mit nicht einvernehmlicher Nacktheit (NCN) ist auf X strengstens verboten und wir haben eine Null-Toleranz-Richtlinie gegenüber solchen Inhalten.“ Unsere Teams entfernen aktiv alle identifizierten Bilder und ergreifen entsprechende Maßnahmen gegen die Konten, die für die Veröffentlichung dieser Bilder verantwortlich sind. Wir beobachten die Situation genau, um sicherzustellen, dass weitere Verstöße sofort behoben und die Inhalte entfernt werden. Wir setzen uns für die Aufrechterhaltung einer sicheren und respektvollen Umgebung für alle Benutzer ein.“

Aber es war noch Tage später möglich, die Bilder zu finden. 404Medien führte den wahrscheinlichen Ursprung der Bilder auf eine Telegram-Gruppe zurück, die dafür bekannt ist, nicht einvernehmliche KI-generierte Bilder von Frauen mit kostenlosen Tools wie Microsoft Designer zu erstellen. Im Interview mit NBC-Nachrichten‘ Lester Holt und Microsoft-CEO Satya Nadella sagten am Freitag, das Problem unterstreiche die Verantwortung des Unternehmens und „alle Leitplanken, die wir rund um die Technologie setzen müssen, damit sicherere Inhalte produziert werden.“ Er sagte weiterhin, dass „es dort viel zu tun gibt und dass dort viel getan wird“, wies aber auch darauf hin, dass das Unternehmen „schnell handeln“ müsse.

source-115

Leave a Reply