Das Klicken auf Ihrer Tastatur kann für die KI ausreichen, um Ihre Daten zu stehlen, sogar während eines Videoanrufs


Was du wissen musst

  • Ein Forscherteam der Cornell University veröffentlichte einen Artikel, in dem detailliert beschrieben wurde, wie sie der KI beigebracht haben, auf Audioeingaben von Tastaturen zu hören und zu interpretieren, was der Benutzer eingegeben hat.
  • Mit spezifischen Tastaturen und passenden Referenzen konnte die KI mit einer Genauigkeit von 95 % erkennen, was eingegeben wurde.
  • Durch die Verwendung von Toucheingaben zur Eingabe wurde die Erkennung von Tastenanschlägen auf 40–64 % reduziert, während weißes Rauschen und zusätzliche Tastenanschläge ebenfalls die Genauigkeit verringerten.

Die Zukunft der KI beginnt jetzt und bringt einige wirklich seltsame Cyberangriffe mit sich. Ein Forscherteam der Cornell University hat hat kürzlich eine Studie veröffentlicht detailliert ihren hypothetischen Cyberangriff, bei dem die KI trainiert wurde, die Eingaben eines Benutzers anhand des Tons seiner Tastenanschläge zu erkennen. Der Prozess der Verwendung von Audio- und Schallüberwachung zum Ausspähen von Daten wird als „akustischer Seitenkanalangriff“ bezeichnet, und obwohl der Prozess, Audio zum Stehlen vertraulicher Informationen zu verwenden, nicht neu ist, ist die Idee, ihn mit KI zu koppeln, ein Technologiesprung das macht es viel effizienter.

Laut dem Forschungsteam, das hinter dem Projekt steht, könnte der Angriff leicht alltägliche Technologien wie ein Mobiltelefonmikrofon oder Zoom-Aufnahmen nutzen, um das Trainingsaudio zu erfassen, das dann in den KI-Algorithmus eingespeist wird, um das Geräusch zu analysieren, bevor es in lesbaren Text übersetzt wird. Mit einer KI, die ordnungsgemäß auf der verwendeten Tastatur trainiert wurde, war das Modell in der Lage, mit einer Genauigkeit von 95 % vorherzusagen, was der Benutzer eingegeben hatte. Diese Genauigkeit sank jedoch auf 93 %, wenn Zoom-Aufzeichnungen zum Trainieren der KI verwendet wurden.



source-108

Leave a Reply