TU Darmstadt: Spionage-Abwehr gegen Smart Home-Geräte
Ein Forschungsteam an der TU Darmstadt hat mit Partnern aus den USA und Frankreich ein Gerät entwickelt, das Smart Home-Geräte mit Sprachassistenz erkennen kann, die ohne Zustimmung der Nutzenden aufgezeichnete Audioaufnahmen ins Internet streamen.
Hersteller von sogenannten „Smart Home“ Geräten fügen zunehmend Sprachassistenzfunktionen zu einer breiten Palette von Geräten hinzu, zum Beispiel zu intelligenten Lautsprechern, Fernsehern, Thermostaten, Sicherheitssystemen und Türklingeln. Infolgedessen sind viele dieser Geräte mit Mikrofonen ausgestattet, was erhebliche Bedenken hinsichtlich des Datenschutzes aufwirft: Die Benutzerinnen und Benutzer sind nicht immer darüber informiert, wann Audioaufnahmen in die Cloud gesendet werden oder wer Zugang zu den Aufnahmen erhält.
Das Forschungsteam der TU Darmstadt konnte gemeinsam mit seinen Partnern nachweisen, dass viele Geräte mit integrierter Sprachassistenz unabsichtlich Gespräche mithören können. Typischerweise werden Sprachassistenten mit einem Weckwort aktiviert; wie Amazons Echo, das üblicherweise mit dem Satzanfang „Alexa, …“ geweckt wird. Das Team hat extensiv Experimente mit Sprachassistenten wie Alexa durchgeführt und zahlreiche englische Wörter identifiziert, die Alexa fälschlicherweise als Weckwort interpretiert. Dadurch wird der Sprachassistent aktiviert, was zu einer unerwarteten Audioübertragung führt. Darunter sind auch alltägliche Wörter wie zum Beispiel „letter“ oder „mixer“. Diese Wörter können sowohl von einer künstlich erzeugten Roboter-Stimme oder einem Menschen gesprochen werden. Die ungewollt von Alexa aufgezeichneten Audio-Daten werden dann in die Cloud hochgeladen und von Amazon analysiert. Um dem entgegenzuwirken, haben die Forscherinnen und Forscher ein Gerät als Gegenmaßname entwickelt und einen funktionstüchtigen Prototypen gebaut.
Das Gerät mit dem Namen „LeakyPick“ kann im Smart Home eines Benutzers platziert werden und in regelmäßigen Abständen die anderen Sprachassistenten in seiner Umgebung mit Audio-Befehlen testen. Der nachfolgende Netzwerkverkehr wird auf statistische Muster hin überwacht, die auf eine Audioübertragung hinweisen. LeakyPick weist dann auf die Geräte hin, die die ungewollte Audioaufzeichnung durchführen.
Das Gerät könnte auch gegen einen raffinierten Angriff auf den Sprachassistenten Alexa helfen: Dabei werden Weckwörter und Befehle von Angreifern in dem für die Menschen unhörbaren Ultraschall-Bereich gesendet und so zum Beispiel Bestellungen beim Online-Versandhändler Amazon getätigt. Die Ultraschall-Befehle sind nicht hörbar für das menschliche Ohr, werden aber von Alexa verstanden. Wenn das LeakyPick-Gerät also eine Aktivität feststellt, obwohl kein hörbarer Befehl erfolgt ist, könnte das auf einen solchen Angriff hindeuten.
Das Gerät existiert derzeit als Prototyp und ist noch nicht im Handel erhältlich. Seine Ergebnisse hat das Forschungsteam auf einer Fachkonferenz eingereicht. Der vollständige Bericht ist im Internet verfügbar.