KI-Experte warnt, dass Deepfakes heute die „größte Bedrohung“ sind, und enthüllt zwei Möglichkeiten, wie sie jetzt gegen Sie eingesetzt werden

DEEPFAKES sind derzeit die „größte sich entwickelnde Bedrohung“, wenn es um Cyberkriminalität geht.

Dies warnte ein führender Cyberexperte gegenüber The US Sun eindringlich vor den Gefahren der Technologie zur Gesichtsfälschung.

1

Überzeugende Deepfakes können sehr schnell erstellt werden – und erfordern immer weniger technisches WissenBildnachweis: Getty

Deepfakes sind betrügerische Videos, die scheinbar eine Person dabei zeigen, Dinge zu tun (und möglicherweise zu sagen), die sie nie getan hat.

Es benutzt künstliche Intelligenz-Stil-Software zum Klonen der Merkmale einer Person – und diese auf etwas anderes abbilden.

Natürlich wird KI für viele finstere Zwecke eingesetzt – unter anderem, um die Erstellung und Ausführung von Betrugsversuchen zu beschleunigen –, doch Deepfakes stellen eine der größten Bedrohungen dar.

Die US Sun sprach mit Adam Pilton, einem in Großbritannien ansässigen Cybersicherheitsberater bei CyberSmart und einem ehemaligen Detective Sergeant, der Cyberkriminalitätüber die Bedrohungen, denen wir ausgesetzt sind.

„KI kann mit Leichtigkeit äußerst überzeugende Phishing-E-Mails erstellen, und das bedeutet, dass unerfahrene Cyberkriminelle das Geld machen, solange es heiß ist“, sagte uns Adam.

„Das National Cyber ​​Security Centre warnte uns in seinem jüngsten Jahresbericht, dass Cyberkriminelle bereits KI nutzen, um immer ausgefeiltere Phishing-E-Mails und Betrugsversuche zu entwickeln.

„Die Bedrohung wird mit der Weiterentwicklung der Technologie und den zunehmenden Fähigkeiten der Beteiligten weiter zunehmen.“

„Die größte Bedrohung sind ohne Zweifel Deepfakes“, fuhr er fort.

„Mithilfe der Deepfake-Technologie lassen sich realistische Video- und Audioimitationen von Menschen erstellen.“

KI kann jetzt mit nur EINEM Foto gruselige Videos von Menschen erstellen – aber Microsoft wird das Tool aus Angst vor Identitätsdiebstahl nicht veröffentlichen

Kriminelle nutzen Deepfakes im Wesentlichen auf zwei Arten, erklärte Adam.

Betrugsschemata

Der erste unheilvolle Zweck von Deepfakes besteht darin, Sie dazu zu verleiten, einen Sicherheitsfehler zu begehen.

Das kann ganz einfach sein: Ein Betrüger gibt sich beispielsweise mithilfe eines Deepfakes als eine geliebte Person aus und überredet Sie, ihm etwas Bargeld zu übergeben.

Deepfakes – was sind sie und wie funktionieren sie?

Das müssen Sie wissen …

  • Deepfakes sind gefälschte Videos von Menschen, die vollkommen echt aussehen
  • Sie werden mithilfe von Computern erstellt, um überzeugende Darstellungen von Ereignissen zu erzeugen, die nie stattgefunden haben.
  • Dabei wird oft das Gesicht einer Person gegen das einer anderen ausgetauscht oder die Person dazu gebracht, alles zu sagen, was man möchte.
  • Der Prozess beginnt damit, dass eine KI mit Hunderten oder sogar Tausenden von Fotos des Opfers gefüttert wird
  • Ein Algorithmus für maschinelles Lernen tauscht Bild für Bild bestimmte Teile aus, bis er ein realistisches, aber gefälschtes Foto oder Video ausspuckt
  • In einem berühmten Deepfake-Clip erstellte der Komiker Jordan Peele ein realistisches Video von Barack Obama, in dem der ehemalige Präsident Donald Trump einen „Depp“ nannte.
  • In einem anderen Fall wird das Gesicht von Will Smith auf die Figur Neo aus dem Actionfilm „Matrix“ geklebt. Smith lehnte die Rolle bekanntlich ab, um im Flop-Film „Wild Wild West“ mitzuspielen, während die Rolle in „Matrix“ an Keanu Reeves ging.

Oder sie geben sich als Kollege oder sogar als Ihr Chef aus, um an Geld oder Informationen von Ihnen zu kommen.

„Betrüger verwenden Deepfakes, um überzeugende gefälschte Videos oder Audionachrichten zu erstellen und ihre Opfer zu Handlungen zu verleiten, die sie normalerweise nicht ausführen würden. Deepfakes-Betrug wird bereits erfolgreich bei Social-Engineering-Angriffen eingesetzt“, erzählte uns Adam.

„Anfang des Jahres haben wir erlebt, wie Cyberkriminelle den Deep Fake eines Finanzvorstands nutzten, um einen Mitarbeiter dazu zu bringen, ihnen 25 Millionen Dollar zu überweisen.

„Ausgelöst wurde dies durch eine Phishing-E-Mail, der der Mitarbeiter mit Skepsis begegnete.

Auch die Stimmen der mutmaßlichen Angreifer waren zu hören, die den Angehörigen des Opfers energisch Anweisungen gaben, das zu tun, was ihnen gesagt wurde, bevor der Entführer direkt mit dem Opfer sprach und seine Lösegeldforderung stellte.

Adam PiltonCybersicherheitsberater bei CyberSmart

„Als der Mitarbeiter jedoch an einem virtuellen Meeting teilnahm und den CFO sowie weitere ihm bekannte Personen sah und hörte, waren alle Verdächtigungen verflogen.

„Wir erleben auch, dass Telefonanrufe dazu genutzt werden, hochemotionale Reaktionen hervorzurufen, in denen Angehörige uns mitteilen, sie seien entführt worden.

„Ende 2023 gab es in den gesamten USA einen offensichtlichen Anstieg der Meldungen solcher Anrufe.

„Es waren nicht nur die vertrauten Stimmen, die die emotionale Reaktion hervorriefen.

„Man konnte auch die Stimmen der mutmaßlichen Angreifer hören, die den Angehörigen des Opfers aggressiv Anweisungen gaben, das zu tun, was ihnen gesagt wurde, bevor der Entführer direkt mit dem Opfer sprach und seine Lösegeldforderung stellte.“

ABWEHR GEGEN DEEPFAKES

Hier ist was Sean KeachLeiter für Technologie und Wissenschaft bei The Sun und The US Sun, hat zu sagen …

Der Anstieg von Deepfakes ist einer der besorgniserregendsten Trends in der Online-Sicherheit.

Mithilfe der Deepfake-Technologie lassen sich sogar aus einem einzigen Foto Videos von Ihnen erstellen – so ist fast niemand sicher.

Doch auch wenn es ein wenig hoffnungslos erscheint, hat der schnelle Aufstieg der Deepfakes einige positive Seiten.

Zunächst einmal gibt es mittlerweile ein viel größeres Bewusstsein für Deepfakes.

Daher werden die Leute nach Anzeichen suchen, dass ein Video gefälscht sein könnte.

Ebenso investieren Technologieunternehmen Zeit und Geld in Software, die gefälschte KI-Inhalte erkennen kann.

Dies bedeutet, dass soziale Medien Ihnen gefälschte Inhalte mit größerer Sicherheit und häufiger melden können.

Angesichts der zunehmenden Qualität von Deepfakes wird es – insbesondere in einigen Jahren – wahrscheinlich schwieriger, visuelle Fehler zu erkennen.

Ihre beste Verteidigung ist also Ihr gesunder Menschenverstand: Hinterfragen Sie alles, was Sie online sehen.

Fragen Sie, ob es Sinn ergibt, dass jemand das Video gefälscht hat – und wer davon profitiert, dass Sie diesen Clip sehen?

Wenn Ihnen etwas Beunruhigendes gesagt wird, eine Person etwas sagt, das nicht zu ihr passt, oder Sie zu einer Handlung gedrängt werden, besteht die Möglichkeit, dass Sie sich einen gefälschten Clip ansehen.

SCHLECHTE NACHRICHTEN

Die zweite Möglichkeit, wie Deepfakes für schändliche Zwecke eingesetzt werden, ist die Verbreitung falscher Nachrichten.

Dies ist besonders besorgniserregend, da die Wähler in den Vereinigten Staaten und im Vereinigten Königreich an die Urnen gehen, um die bevorstehenden Wahlen zu verfolgen.

Einfache Frage, die KI-Stimmklone vor Probleme stellen wird

„Das Weltwirtschaftsforum hat Fehlinformationen und Desinformation als das größte globale Risiko eingestuft. nächste zwei Jahre”, sagte Adam gegenüber The US Sun.

„Angesichts der bevorstehenden Wahlen in den Demokratien weltweit ist es leicht zu verstehen, warum das so ist.

„Wir sehen weiterhin die Fähigkeit der KI, gefälschte Nachrichtenartikel, Social-Media-Beiträge und andere Inhalte zu generieren, die Fehlinformationen verbreiten.“

source site-19

Leave a Reply