News

Amazon Echo & andere Sprachassistenten lassen sich per Laser fernsteuern

Laut einem Bericht von Arstechnica.com kann an Sprachassistenten wie dem Amazon Echo aber auch an zahlreiche Smartphones mithilfe eines Lasers ein unhörbarer Befehl geschickt werden. Die Geräte reagieren daraufhin wie von Geisterhand gesteuert und führen ohne hörbaren Ton den Befehl aus. Entdeckt wurde die Sicherheitslücke von Wissenschaftlern der Universität von Michigan. Details haben die Entdecker auf der eigens dafür angelegten Webseite Lightcommands.com veröffentlicht.

Hier klicken, um den Inhalt von YouTube anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von YouTube.

Wie in den Videos demonstriert wird, erfolgt der Hack mithilfe eines niedrigfrequenten Lichtstrahls, der von den Mikrofonen der Sprachassistenten als Sprachbefehl interpretiert wird. Den Wissenschaftlern ist es so beispielsweise gelungen aus der Ferne ein Garagentor zu öffnen.

Hier klicken, um den Inhalt von YouTube anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von YouTube.

Zu den betroffenen Geräten gehören auch aktuelle Smartphones wie das Samsung Galaxy S9 und das iPhone XR. Kurioserweise gaben die Wissenschaftler zu, dass auch sie die Physik, die den Hack auslöst, nicht vollständig verstehen können. Bisher ist es lediglich sicher, dass der Laser das Mikrofon in den Sprachassistenten, Smartphones und Tablets auslösen kann. Angreifbar sind alle sogenannten mikroelektromechanischen Systeme (MEMS), die neben Audio auch Licht interpretieren können. Aufgrund ihrer kompakten Bauweise und der zugleich hohen Sprachqualität sind sie in nahezu allen Mobilgeräten verbaut. Vermutlich verursacht das auftreffende Laserlicht auf der Membran ähnliche Vibrationen wie die Stimme, die ansonsten von den Geräten als Audiobefehl interpretiert wird.

Hier klicken, um den Inhalt von YouTube anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von YouTube.

In den Experimenten konnte belegt werden, dass der Hack über Distanzen von bis zu 110 Metern genutzt werden kann. Den Wissenschaftlern ist es so gelungen über zwei Gebäude hinweg einen Sprachbefehl auszuführen, der eine Tür geöffnet hat. Es geht also von dem Sicherheitsproblem eine reale Gefahr aus. Inzwischen gaben die Hersteller des weit verbreiteten Sprachassistenten bekannt, dass an entsprechenden Sicherheitsupdates gearbeitet wird. Weil der Hack aufgrund des nötigen Lasers und des erforderlichen Sichtkontakts technisch anspruchsvoll ist, gehen die Unternehmen davon aus, dass er bisher nicht missbräuchlich genutzt wurde.

Ähnliche Artikel

Schreibe einen Kommentar

Schaltfläche "Zurück zum Anfang"