Kritische Bedrohung: KI stiehlt Daten mithilfe von Tastaturgeräuschen


Datendiebstahl per Aufzeichnung von Tastaturanschlägen ist eigentlich ein alter Hut. Nun hat ein Forscherteam allerdings eine KI so trainiert, das sie mit einer Genauigkeit von 95 Prozent alle Eingaben anhand von Tonaufnahmen erkennt.

Kritische Bedrohung – und sie wächst

Das ist eine völlig neue Dimension der Erkennung von Tastaturanschlägen nur mithilfe einer Aufzeichnung durch ein Mikrofon und damit eine kritische Bedrohung und vor allem ohne das Einschleusen einer Malware bei den Opfern. Das meldet das Online-Magazin Bleeping Computer.

Ein Forscherteam verschiedener britischer Universitäten hat seine Erkenntnisse jetzt geteilt. Die Wissenschaftler haben dazu ein Deep-Learning-Modell trainiert, das letztendlich mit einer Genauigkeit von 95 Prozent Daten aus Tastaturanschlägen stehlen kann, die mit einem Mikrofon aufgenommen wurden.

Ein solcher Angriff hat schwerwiegende Auswirkungen auf die Datensicherheit, da Passwörter, Nachrichten oder andere sensible Informationen an böswillige Dritte weitergegeben werden können.

Im Gegensatz zu anderen sogenannten Seitenkanalangriffen, die besondere Bedingungen erfordern, sind akustische Angriffe heute viel einfacher geworden. Eigentlich jedes Smartphone kann qualitativ hochwertige Audioaufnahmen machen und so Daten ausspionieren – Angreifer benötigen so keinen direkten Zugriff auf ihr Zielgerät.

Die Forscher haben selbst mit der Aufzeichnung über einen Zoom-Call noch beste Ergebnisse erzielt. Der erste Schritt des Angriffs besteht darin, die Tastenanschläge aufzuzeichnen, da diese Daten für das Training des Vorhersage-Algorithmus benötigt werden.

Infografik: Millionenschäden durch Datenlecks Millionenschäden durch Datenlecks

Wissen über Angriffsziele

Sobald die potenziellen Angreifer wissen, mit welchem Gerät gearbeitet wird, arbeitet die KI schnell sehr genau. In einem Beispiel wurde so ein aktuelles MacBook Pro genutzt.

Die Forscher sammelten Trainingsdaten für ihre KI, indem sie 36 Tasten auf einem modernen MacBook Pro jeweils 25 Mal drückten und den Ton aufzeichneten, der bei jedem Tastendruck entstand. Anschließend erstellten sie aus den Aufnahmen Wellenformen und Spektrogramme, die erkennbare Unterschiede für jede Taste visualisieren.

In ihren Experimenten verwendeten die Forscher ein MacBook Pro, ein iPhone 13 mini, das 17 Zentimeter vom Ziel entfernt war, und Zoom zur Auszeichnung und Übertragung der Tastatur-Geräusche.

Sobald dich die KI auf die Tastatur ihres Ziels eingerichtet hat, können alle Eingaben aufgezeichnet und von ihr in Textform abgespeichert werden.

Mögliche Abhilfemaßnahmen

Abhilfemaßnahmen gegen solche Angriffe gibt es natürlich auch schon. Ganz so einfach sind sie aber nicht und kommen daher auch bislang nur in Unternehmen zum Einsatz. Dazu gehört Software zur Reproduktion von Tastenanschlaggeräuschen, weißem Rauschen oder softwarebasierten Tastenanschlag-Audiofiltern. Damit werden Aufzeichnungen unbrauchbar.

Zusammenfassung

  • KI-Trainingsmodell erkennt Tastaturanschläge mithilfe Tonaufnahmen mit 95% Genauigkeit.
  • Angriffe durch Smartphones möglich, kein direkter Zugriff auf Zielgerät notwendig.
  • Forscher sammelten Trainingsdaten durch Tastendrücke auf modernem MacBook Pro.
  • KI kann Eingaben aufzeichnen und in Textform abspeichern.
  • Abhilfemaßnahmen: Software zur Reproduktion von Tastenanschlaggeräuschen, weißes Rauschen etc.

Siehe auch:



Title: Kritische Bedrohung: KI stiehlt Daten mithilfe von Tastaturgeräuschen
URL: https://winfuture.de/news,137763.html
Source: WinFuture News
Source URL: https://winfuture.de/
Date: August 6, 2023 at 12:20PM
Feedly Board(s): Technologie