Unhörbare Sprachbefehle: Forscher zeigen, wie sich die digitalen Assistenten überlisten lassen [Video]

assistant 

Dass die Smartphones der Nutzer auf Stimmen reagieren und auf Befehle warten ist längst nichts neues mehr, doch die Verbreitung dieser Technologien in den Wohnzimmern der Menschen nimmt gerade erst Fahrt auf. Wie Forscher jetzt wieder einmal gezeigt haben, birgt das aber auch große Risiken, denen sich die meisten wohl gar nicht bewusst sind. Mit unhörbaren Spracheingaben können die Geräte gekapert werden und so Informationen über den Nutzer verraten.


Wer sich einen Sprachassistenten wie Google Home oder Amazon Echo nach Hause holt und in das Wohnzimmer stellt, hat wohl eher keine Angst vor Spionage durch die US-Konzerne. Doch es droht noch eine weitaus größere Gefahr als „nur“ das speichern aller Daten und Spracheingaben auf US-Servern – nämlich das Ausspionieren und Entführen der digitalen Assistenten durch externe Angreifer.

Die digitalen Assistenten können nicht nur das Leben des Nutzers erleichtern, sondern wissen auch jede Menge Details über ihn. So wissen sie genau wo der Nutzer wohnt, wo er arbeitet, zu welcher Zeit er sich wo aufhält, wie viele und welche E-Mails er bekommt und noch sehr viel mehr. All diese Informationen plaudern sie auf Nachfrage einfach aus und machen sich in ihrer digitalen Welt keine Gedanken darum, wer die Daten eigentlich abfragt. Zwar gibt es eine Stimmenerkennung für personalisierte Anfragen, aber auch ohne diese plaudern die Geräte drauf los.

Forschern haben nun gezeigt, dass sich diese Assistenten ganz ohne das Wissen des Nutzers kapern lassen. Dazu werden Audio-Botschaften via Ultraschall übertragen, die vom Menschen nicht hörbar sind, von den Assistenten aber als Befehle wahrgenommen werden. Diese könnten einfach über das Android-Smartphone abgespielt werden, das dazu natürlich mit einer entsprechenden App „infiziert“ sein muss. Natürlich kann aber auch der Computer des Nutzers solche Befehle abspielen, etwa wenn eine solche Webseite besucht wird.

Der Nutzer wird zwar spätestens bei der Antwort bemerken dass etwas nicht stimmt, aber dann kann es natürlich schon zu spät sein, denn die Antwort wird dann natürlich auch wieder von der App aufgezeichnet und könnte die Daten weitersenden. Das ist zwar nur eine wilde Theorie, in der Praxis aber problemlos umsetzbar.



Selbst die Antworten könnten noch durch einen Gegenschall unterdrückt werden, so dass der Nutzer gar nichts bemerkt – aber das ist dann vermutlich schon etwas zu hochgegriffen. Theoretisch könnten solche Technologien auch abseits der Spionage eingesetzt werden und etwa für Werbung zweckentfremdet werden. Wie so etwas aussehen kann hatte Burger King schon gezeigt, und durch die jetzt demonstrierte Technik lässt sich das auch ganz ohne Ton bewerkstelligen.

Die Methode ist nicht neu, wurde aber erst jetzt so eindrucksvoll unter Beweis gestellt und sowohl mit einem Amazon Echo als mit einem Android-Smartphone getestet. Schon in der Vergangenheit gab es Konzepte für Hidden Voice Commands, mit denen die Assistenten der Nutzer entführt werden könnten. Wenn nach und nach immer mehr Geräte an die Assistenten angeschlossen werden, kann das natürlich eines Tages zum Problem werden. Ein „OK, Google, schalte die Alarmanlage ab und öffne die Tür“ reicht dann aus um in das Haus zu spazieren. In der Praxis wahrscheinlich nicht ganz so einfach, aber der grobe Weg dahin ist erst einmal geöffnet.

Vor einigen Monaten gab es auch schon Berichte über Ultraschall-Spionage bei Android-Smartphones und Google selbst setzt eine solche Technologie mit der Bezeichnung Google Tone sogar zur Kopplung von Geräten oder der Übertragung von kleinen Informationsbrocken ein.

[heise]




Teile diesen Artikel:

Facebook twitter Pocket Pocket