Wenn es um Deepfakes geht, ist das, was wir bisher gesehen haben, nur die Spitze des Eisbergs. In naher Zukunft werden wir nicht sicher sein, ob die Person, mit der wir bei einem Videoanruf sprechen, echt oder ein Betrüger ist, und Gauner werden keine Probleme haben, eine ganze Chronologie gefälschter Videos zu erstellen, um ihre Behauptungen zu untermauern, oder Menschen dazu verleiten, die Legitimität eines Angebots oder einer Kampagne zu glauben.
Diese erschütternden Vorhersagen stammen von Eric Horvitz, Chief Science Officer von Microsoft, in einer neuen Forschungsarbeit mit dem Titel „Am Horizont: Interaktive und kompositorische Deepfakes“.
Deepfakes sind im Wesentlichen „photoshoppte“ Videos. Durch den Einsatz von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) kann ein Bedrohungsakteur ein Video erstellen, in dem eine Person Dinge sagt, die sie nie gesagt hat. Jetzt, so Horvitz, sind Gauner bereit, es auf die nächste Stufe zu heben. Interaktive Deepfakes sind genau so, wie Sie es erwarten würden – Echtzeitvideos, mit denen Benutzer interagieren können, die in Wirklichkeit völlig gefälscht sind.
Synthetische Geschichte
Kompositorische Deepfakes hingegen werden als „Sets von Deepfakes“ beschrieben, die darauf ausgelegt sind, sich im Laufe der Zeit mit „beobachteten, erwarteten und konstruierten Weltereignissen zu integrieren, um überzeugende synthetische Geschichten zu erstellen“.
„Synthetische Geschichten können manuell konstruiert werden, könnten aber eines Tages von kontradiktorischen generativen Erklärungstechniken (AGE) geleitet werden“, fügt Horvitz hinzu.
Er sagt auch, dass es in naher Zukunft fast unmöglich sein wird, gefälschte Videos und gefälschte Inhalte von authentischen zu unterscheiden: „In Ermangelung von Schadensbegrenzungen drohen interaktive und kompositorische Deepfakes, uns einer post-epistemischen Welt näher zu bringen, wo Tatsache kann nicht von Fiktion unterschieden werden.“
Dieses Fehlen von Schadensbegrenzungen ergibt sich aus der Tatsache, dass Bedrohungsakteure künstliche Intelligenz gegen Analysetools einsetzen und Deepfake-Inhalte entwickeln können, die selbst die fortschrittlichsten Erkennungssysteme täuschen können.
„Mit diesem Prozess auf der Grundlage von Deepfakes werden weder Mustererkennungstechniken noch Menschen in der Lage sein, Deepfakes zuverlässig zu erkennen“, bemerkt Horvitz.
Wenn also ein Familienmitglied das nächste Mal aus dem Ausland anruft, um Geld für die Miete zu verlangen, stellen Sie sicher, dass es sich nicht um einen Betrüger handelt, der sich ausgibt (öffnet in neuem Tab) deine Geliebten.
Über: VentureBeat (öffnet in neuem Tab)