Was du wissen musst
- Ein Forscherteam der Cornell University veröffentlichte einen Artikel, in dem detailliert beschrieben wurde, wie sie der KI beigebracht haben, auf Audioeingaben von Tastaturen zu hören und zu interpretieren, was der Benutzer eingegeben hat.
- Mit spezifischen Tastaturen und passenden Referenzen konnte die KI mit einer Genauigkeit von 95 % erkennen, was eingegeben wurde.
- Durch die Verwendung von Toucheingaben zur Eingabe wurde die Erkennung von Tastenanschlägen auf 40–64 % reduziert, während weißes Rauschen und zusätzliche Tastenanschläge ebenfalls die Genauigkeit verringerten.
Die Zukunft der KI beginnt jetzt und bringt einige wirklich seltsame Cyberangriffe mit sich. Ein Forscherteam der Cornell University hat hat kürzlich eine Studie veröffentlicht detailliert ihren hypothetischen Cyberangriff, bei dem die KI trainiert wurde, die Eingaben eines Benutzers anhand des Tons seiner Tastenanschläge zu erkennen. Der Prozess der Verwendung von Audio- und Schallüberwachung zum Ausspähen von Daten wird als „akustischer Seitenkanalangriff“ bezeichnet, und obwohl der Prozess, Audio zum Stehlen vertraulicher Informationen zu verwenden, nicht neu ist, ist die Idee, ihn mit KI zu koppeln, ein Technologiesprung das macht es viel effizienter.
Laut dem Forschungsteam, das hinter dem Projekt steht, könnte der Angriff leicht alltägliche Technologien wie ein Mobiltelefonmikrofon oder Zoom-Aufnahmen nutzen, um das Trainingsaudio zu erfassen, das dann in den KI-Algorithmus eingespeist wird, um das Geräusch zu analysieren, bevor es in lesbaren Text übersetzt wird. Mit einer KI, die ordnungsgemäß auf der verwendeten Tastatur trainiert wurde, war das Modell in der Lage, mit einer Genauigkeit von 95 % vorherzusagen, was der Benutzer eingegeben hatte. Diese Genauigkeit sank jedoch auf 93 %, wenn Zoom-Aufzeichnungen zum Trainieren der KI verwendet wurden.
Um den hypothetischen Cyberangriff zu erstellen, drückte das Forschungsteam 36 Tasten auf einem MacBook Pro jeweils 25 Mal mit unterschiedlichem Druck und zeichnete dabei das Geräusch jedes Tastendrucks auf. Die 25 Audio-Samples wurden dann für jede Taste zu einer Datei zusammengefasst und einem KI-Algorithmus zugeführt.
Sie müssen Ihre bevorzugte mechanische Tastatur noch nicht wegwerfen. Es gab Möglichkeiten, die KI zu vereiteln, einschließlich der Hinzufügung zusätzlicher Tastentöne, wenn möglich, oder der Verwendung von Software von Drittanbietern, um ein Geräusch zu erzeugen, das alle Audiodaten verfälschen könnte, die möglicherweise zum Trainieren der KI verwendet würden. Auch die Verwendung unterschiedlicher Groß-/Kleinschreibung und die zufällige Anordnung Ihres Schreibstils könnten hilfreich sein, auch wenn es vielleicht leichter gesagt als getan ist, etwas wie Ihre Schreibweise zu ändern.
Der Wechsel zu biometrischen Schutzmaßnahmen für Ihre Daten wird für die meisten Benutzer sicherlich eine einfachere Methode sein. Diejenigen, die wirklich Angst vor einem akustischen Seitenkanalangriff haben, könnten sich für die Verwendung einer Touchscreen-Tastatur entscheiden, da die Studie gezeigt hat, dass der Wechsel zu einer Touchscreen-Tastatur die Genauigkeit der KI auf bis zu 40 % senken könnte.
Analyse: Nicht Ihr größtes Sicherheitsrisiko
Wenn es um Cybersicherheitsmaßnahmen geht, ist es immer eine gute Idee, auf dem Laufenden zu sein, aber wenn es um so etwas wie akustische Tastaturangriffe geht, ist es sehr unwahrscheinlich, dass sich der durchschnittliche Schreibkraft Sorgen machen muss. Wenn Sie es natürlich mit hochsensiblen Informationen zu tun haben, sollten Sie vielleicht etwas vorsichtiger sein als der durchschnittliche Benutzer, aber es gibt sicherlich einfachere Methoden zum Daten-Scraping, als sich die Mühe zu machen, eine KI mit den Daten einer Person zu trainieren bestimmtes Tastatur- und Tippverhalten, um Daten zu stehlen.