Forscher: Google Assistant, Siri, Alexa & Co. lassen sich durch unhörbare Sprachbefehle fernsteuern (Video)

assistant 

Heute hat praktisch jeder einen Sprachassistenten in unmittelbarer Reichweite, der ständig auf die Stimme des Nutzers hört. Ob nun Smartphone, Smart Speaker oder auch Smartwatch spielt dabei keine große Rolle, denn alle bieten grundlegenden Zugriff auf viele Funktionen. Jetzt haben Forscher erneut demonstriert, dass sich diese Sprachassistenten relativ leicht ausnutzen lassen, ohne dass der Besitzer es bemerkt.


Sprachassistenten sind nicht nur sehr nützliche Helferlein, sondern haben immer mehr Macht über die Umwelt des Nutzers und können teilweise auch sehr verräterisch sein. Natürlich würde es jeder Nutzer wohl sofort unterbinden, wenn bemerkt wird, dass jemand anders dem eigenen Assistenten Befehle gibt und Daten abruft, Anrufe auslöst, Türen öffnet oder andere ungewünschte Dinge tut. Das wird allerdings schwer, wenn ein solcher Angriff gar nicht bemerkt wird.

assistant vs. siri

Schon vor zwei Jahre haben Forscher erstmals gezeigt, dass sich die Sprachbefehle sehr gut in Audiodateien verstecken lassen, die von den Assistenten wahrgenommen werden, aber für den Menschen nicht hörbar sind. Damals befanden sich die Befehle allerdings in „weißem Rauschen“, das für den Nutzer entweder unhörbar ist oder nur merkwürdige Geräusche erzeugt. Jetzt wurde das System „perfektioniert“ und kann die Botschaften auch in Musik oder in ganz anderen Sätzen verstecken.


 

Oben habt ihr Audiobeispiele, die sehr harmlos klingen und bei niemandem die Alarmglocken schrillen lassen. Tatsächlich versteckt sich darin aber die Botschaft „okay google, browse to evil.com„, die von den Assistenten wahrgenommen und dann auch ausgeführt wird. Der für den Menschen hörbare Teil hingegen wird nicht registriert und dementsprechend auch nicht ausgeführt.

Die große Gefahr dabei ist, dass die Assistenten entweder Informationen ausplaudern und an Angreifer versenden könnten oder gar teure Telefonnummern wählen, ohne dass der Nutzer es bemerkt. Zuvor wird per Sprachbefehl der Ton auf Stumm gestellt, so dass es keine verräterischen Signale gibt.



Das ganze Experiment wurde auch in einem kurzen Video festgehalten, das zeigt, dass solche Botschaften auch in YouTube-Videos oder anderen Medien versteckt sein können. Da man hinter einem YouTube-Link wohl niemals etwas gefährliches erwartet, klickt man ihn einfach an und hört sich vielleicht das kurze Musikstück an, während das Smartphone im Hintergrund die darin versteckten Aufgaben ausführt.

Durch die Stimmenerkennung und Zuordnung zu einem bestimmten Nutzer könnte ein solcher Angriff relativ leicht blockiert werden, aber dennoch zeigt es gut die Schwachstellen auf, mit denen die Sprachassistenten bisher noch konfrontiert sind. Das ganze funktioniert übrigens nicht nur mit dem Google Assistant, sondern genau so auch mit Siri, Alexa und allen anderen Sprachassistenten.

Weiterführende Informationen und Beispiele findet ihr auf den folgenden Seiten:

» CommanderSon Demo
» Audio Adversarial Examples

[9to5Google]


Keine Google-News mehr verpassen: Abonniere den GoogleWatchBlog-Newsletter
GoogleWatchBlog Newsletter abonnieren


Teile diesen Artikel:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.