Amerikaner verlieren Milliarden durch Betrug mit Promis wie Taylor Swift und Oprah

Wenn Sie sehen, dass Ihr Lieblingsstar online für ein Produkt oder ein Angebot wirbt, denken Sie zweimal darüber nach, bevor Sie Ihre Kreditkartendaten preisgeben. Promi-Deepfakes haben Amerikaner um Milliarden betrogen, und Anhänger von Mega-Prominenten wie Taylor Swift und Oprah sind darauf reingefallen. Experten gingen etwas tiefer Newsweek darüber, wie es gemacht wird und was man dagegen tun kann, wenn es Ihnen passiert.

Nach Angaben der Federal Trade Commission haben die Amerikaner insgesamt 2,7 Milliarden US-Dollar durch die Betrugstaktiken in den sozialen Medien verloren. Durch die Manipulation des Konterfeis einer Berühmtheit haben Social-Media-Nutzer ihre Finanzinformationen preisgegeben und Hunderte, wenn nicht Tausende von Dollar verloren.

Eine Betrugsmasche legt nahe, dass Taylor Swift kostenlose Produkte von Le Creuset verteilt, indem er eine synthetische, aber glaubwürdige Stimme und ein Video verwendet, das Swift beim Sprechen zeigt. In der Anzeige werden die Nutzer dann aufgefordert, ihre Bankdaten einzugeben, um die Versandkosten zu bezahlen, bevor heimlich mehrere Gebühren erhoben werden.

Bei einem weiteren Betrugsversuch verkaufte scheinbar Luke Combs Kaugummis zur Gewichtsreduktion. Und bei einem anderen machte Tom Hanks Werbung für Zahntarife.

Oprah Winfrey spricht auf der Bühne während der 29. Annual Critics Choice Awards im Barker Hangar am 14. Januar 2024 in Santa Monica, Kalifornien. Oprah ist eine von vielen Prominenten, die in Deepfake-Betrügereien missbraucht wurden, um Amerikanern Milliarden von Dollar zu stehlen.
Kevin Winter/Getty Images für Critics Choice Association

Oprah wurde auch online synchronisiert und sagte, dass auch sie Kochgeschirrsets an Fans verschenken würde, wenn diese nur ihre persönlichen Daten preisgeben würden. Und in der heutigen Zeit ist es möglicherweise nicht sofort offensichtlich, dass es sich überhaupt um eine Fälschung handelt.

Auf Complain.Biz teilte ein Social-Media-Nutzer mit, dass er 800 US-Dollar durch eine gefälschte Bitcoin-Werbeaktion von Michael Saylor verloren habe.

„Das Video war ein Deepfake, super überzeugend und ich bin völlig darauf hereingefallen“, schrieben sie online. „Ich habe meine BTC in der Hoffnung geschickt, sie zu verdoppeln, aber es war ein Betrug. Später fand ich heraus, dass Michael Saylor selbst vor diesen Betrügereien auf X gewarnt hat.“

Saylor, der Vorstandsvorsitzende von MicroStrategy, muss Berichten zufolge täglich 80 KI-Deepfake-Videos entfernen.

„Es ist wichtig, die Ausgereiftheit und Glaubwürdigkeit der Technologie hervorzuheben“, sagte Tom Blok, der Gründer der Krypto-Beschwerde-Website Complain.biz Newsweek. „Die Deepfake-Technologie ist so weit fortgeschritten, dass es immer schwieriger wird, echt von einer Fälschung zu unterscheiden. Ich habe mir das Video selbst angesehen, und obwohl ich wusste, dass es ein Deepfake war, konnte ich es kaum bemerken.“

TikTok ist zu einem besonders beliebten Medium für Betrüger geworden, die problemlos ein breites Spektrum jüngerer, ahnungsloser Zielgruppen ansprechen können.

„Berüchtigte Persönlichkeiten wie Elon Musk, Mr. Beast, Sam Altman, Warren Buffet, Joe Rogan, Donald Trump und Tucker Carlson werden in betrügerischen Empfehlungen zum Austausch von Kryptowährungen nachgeahmt“, sagte Luís Corrons, der Sicherheitsspezialist bei Avast Newsweek. „Diese gefälschten Empfehlungen locken Benutzer mit dem Versprechen beträchtlicher Bitcoin-Belohnungen und bereiten so die Bühne für den Betrug.“

Deepfake-Betrügereien dringen auch in nicht englischsprachige Räume vor, wobei viele davon auch auf Deutsch, Italienisch und Französisch gemeldet werden.

So schützen Sie sich

Während Sie online sind, sollten Sie laut Experten misstrauisch sein, wenn das Video der Berühmtheit altmodisch aussieht oder auch nur ihre obere Hälfte zeigt.

„Wenn Sie nur den Kopf und die Schultern einer sprechenden Berühmtheit sehen, werden Sie sofort misstrauisch“, sagte David Notowitz, Präsident und Gründer von NCAVF und Deepfake- und KI-Bildexperte Newsweek. „Kopf und Schultern sind schon ziemlich gut entwickelt, aber Gliedmaßen sind schwierig zu formen.“

Eine weitere häufig verwendete Betrugstaktik ist das Versenden eines Videos, das zeigt oder so klingt, als ob eine Familie oder ein Freund Hilfe braucht. In diesen Fällen kann es hilfreich sein, ein bestimmtes Codewort festzulegen, das Sie verwenden würden, wenn Sie tatsächlich Hilfe benötigen, insbesondere für diejenigen, die weniger technisch versiert sind.

„Konsumenten werden zunehmend skeptisch gegenüber dem, was sie online sehen, da immer mehr KI böswillig eingesetzt wird – und das zu Recht“, sagte Zulfikar Ramzan, Chefwissenschaftler beim Unternehmen für intelligente Sicherheitslösungen Aura Newsweek.

„Um sicherzustellen, dass Ihre Lieben vor KI-Deepfake- und Voice-Cloning-Betrügereien geschützt sind, erstellen Sie ein Schlüsselwort, das nur Ihre Familienmitglieder kennen. Wenn Sie den Verdacht haben, dass Sie betrogen werden, fragen Sie nach dem Schlüsselwort. Wenn sie es nicht kennen, ist es das.“ Keiner Ihrer Familienangehörigen ist in Gefahr.

Um jedoch selbst die überzeugendsten Videos mit Promi-Deals zu verifizieren, sollten Sie immer deren offizielle und verifizierte Kanäle überprüfen.

„Wenn etwas zu schön erscheint, um wahr zu sein, ist es das wahrscheinlich auch“, sagte Blok.

Abgesehen von den finanziellen Belastungen, die Deepfakes den Verbrauchern bereiten, zerstören sie auch die grundlegende Vorstellung, dass man dem vertrauen kann, was man mit eigenen Augen sieht.

„Diese Deepfake-Betrügereien richten nicht nur finanziellen Schaden an“, sagte Blok. „Sie untergraben das Vertrauen in digitale Inhalte und machen es auch schwieriger, legitimen Informationen zu vertrauen.“

Der Kongress hat zwei neue Gesetze vorgeschlagen, um der zunehmenden Verbreitung von Deepfakes im Internet entgegenzuwirken: den No Fakes Act und den Deepfakes Accountability Act. Beides wurde jedoch noch nicht offiziell verabschiedet.

Heute gibt es nur in Kalifornien und Florida Gesetze zum Thema KI.