Dringende Warnung vor einem „Billigfälschungs“-Angriff, der KI nutzt, um Ihr Geld zu stehlen – sechs Anzeichen dafür, dass Sie ein Ziel sind

Der Anstieg der KI-gestützten Cyberkriminalität nimmt rasant zu, da Experten vor den Gefahren von „Deepfakes und Cheapfakes“ warnen.

Kriminelle greifen zunehmend auf künstliche Intelligenz zurück, um Sie zu betrügen – oder Sie zur Herausgabe von Informationen oder Bargeld zu verleiten.

1

Deepfakes werden immer überzeugenderBildnachweis: Getty

Einige Betrüger nutzen ChatGPT – oder andere KI-Chatbots –, um überzeugend zu wirken Betrugsnachrichten per E-Mail oder SMS zuzustellen.

Aber Kriminelle machen sich auch Deepfakes zunutze, das sind Videos von Menschen, deren Gesichter digital verändert wurden, um wie jemand anderen auszusehen.

Dann gibt es Cheapfakes, das sind einfache und kostengünstigere Versionen von Deepfakes, die beliebte Videobearbeitungs-Apps, einfache Photoshop-Bearbeitungen, Optimierungen und Neuschnitte von Videos und sogar Lookalikes verwenden.

Oftmals werden die Konterfeis von Prominenten für Deepfakes und Cheapfakes gestohlen, um die Opfer im Rahmen eines Betrugs zur Herausgabe von Bargeld oder Informationen zu verleiten.

Kriminelle können aber auch Deepfakes von normalen Personen nutzen, um die digitale Verifizierung zu umgehen und es Kriminellen so zu ermöglichen, in Ihre Konten einzudringen.

Laut dem Identitätsprüfungsdienst Sumsub war die Zahl der Deepfake-Betrügereien im ersten Quartal 2023 höher als im gesamten Jahr 2022.

Und für das Jahr 2023 verzeichnete Onfido, ein weiterer Verifizierungsdienst, einen Anstieg des „Deepfake-Betrugs“ um 3.000 %.

So erkennen Sie Deepfakes und Cheapfakes

Es ist schwierig, jemanden daran zu hindern, mithilfe eines Deepfakes von Ihnen in Ihre Konten einzudringen.

Ihre einzige wirkliche Macht besteht darin, sicherzustellen, dass Ihre Konten über die besten Sicherheitseinstellungen verfügen – und das Hochladen von Fotos und Videos von sich nach Möglichkeit zu vermeiden.

Unternehmen benötigen leistungsfähigere Verifizierungssysteme, um diese Deepfakes auszumerzen – und zu verhindern, dass Kriminelle in Ihre Konten eindringen.

Mit Deepfake-Betrügereien haben Sie mehr Glück, auf der sicheren Seite zu sein.

Journalismusexperten am Poynter Institute enthüllt Einige der wichtigsten Anzeichen dafür, dass Sie es mit einem Deepfake zu tun haben.

In einem Blogbeitrag forderten sie die Benutzer auf, auf sechs Hinweise zu achten:

  • Zähne könnten seltsam aussehen
  • Fleckiger, ungleichmäßiger Hautton
  • Kein Blinzeln
  • Unbeholfene Gesichtsausdrücke
  • Bad-Hair-Day
  • Die Stimme ist ausgeschaltet

Bei sehr raffinierten Deepfakes treten diese Probleme jedoch möglicherweise nicht auf. Daher müssen Sie die Quelle des Videos, die Beweise, die Sie sehen, und was Sie sonst noch aus anderen Quellen herausfinden können, in Frage stellen.

Wenn ein Angebot oder ein Investitionsplan, den Sie online sehen, den Anschein erweckt, von einem Promi befürwortet worden zu sein, sollten Sie misstrauisch sein.

Der Sicherheitsriese Norton hat außerdem einige Tipps zum Erkennen von Deepfakes verraten.

Ganz oben auf der Liste stehen unnatürliche Augenbewegungen, die ein todsicherer Hinweis darauf sein können, dass etwas nicht stimmt.

„Augenbewegungen, die nicht natürlich aussehen – oder ein Mangel an Augenbewegungen, wie z. B. fehlendes Blinzeln – sind Warnsignale“, erklärte Norton.

„Es ist eine Herausforderung, den Vorgang des Blinzelns so nachzubilden, dass er natürlich aussieht.

„Außerdem ist es eine Herausforderung, die Augenbewegungen einer realen Person nachzubilden. Das liegt daran, dass die Augen einer Person normalerweise der Person folgen, mit der sie spricht.“

Norton empfiehlt außerdem, auf unnatürliche Gesichtsausdrücke und eine ungünstige Positionierung des Gesichts zu achten Merkmaleund Emotionen, die nicht zum Gesagten passen.

Haare und Zähne sehen möglicherweise nicht echt aus und Sie bemerken möglicherweise „Unschärfe oder Fehlausrichtung“ an den Kanten – beispielsweise wenn Gesicht und Hals falsch ausgerichtet sind.


source site-20

Leave a Reply