Datenschutzprobleme und Sicherheitsrisiken bei Alexa Skills
Mit den Sprachbefehlen „Alexa Skills“ können User zahlreiche Extrafunktionen auf ihren Amazon-Sprachassistenten laden. Doch die bringen nicht nur Vorteile mit sich, sondern bergen oftmals Sicherheitslücken und Datenschutzprobleme. Das wies ein Forschungsteam des Horst-Görtz-Instituts für IT-Sicherheit der Ruhr-Universität Bochum (RUB) und der North Carolina State University nach, zusammen mit einem ehemaligen Doktoranden, der im Lauf des Projekts zu Google wechselte. Ihre Arbeit präsentieren sie auf der Konferenz „Network and Distributed System Security Symposium (NDSS)“ am 24. Februar 2021.
In ihrer Studie haben die Wissenschaftler um Christopher Lentzsch und Dr. Martin Degeling erstmalig das Ökosystem der Alexa Skills untersucht. Diese Sprachbefehle werden nicht nur vom US-amerikanischen Tech-Unternehmen Amazon selbst, sondern auch von externen Anbietern entwickelt. User können sie direkt über einen von Amazon betriebenen Store herunterladen, teilweise werden sie auch automatisch von Amazon aktiviert. Aus den Stores in sieben Ländern erhielten die Forscher insgesamt 90.194 Skills und analysierten diese.
Dabei stellten sie signifikante Mängel für eine sichere Nutzung fest. „Ein erstes Problem besteht darin, dass Amazon die Skills seit 2017 teilweise automatisch aktiviert. Früher mussten User der Nutzung jedes Skills zustimmen. Nun haben sie kaum mehr einen Überblick darüber, woher die Antwort kommt, die Alexa ihnen gibt, und wer diese überhaupt programmiert hat“, erklärt Dr. Martin Degeling vom Lehrstuhl für Systemsicherheit der RUB. Dabei sei leider häufig unklar, wann welcher Skill angesteuert werde. Wer Alexa zum Beispiel um ein Kompliment bittet, kann eine Antwort von 31 verschiedenen Anbietern bekommen; welcher dafür automatisch ausgewählt wird, ist nicht direkt nachvollziehbar. Dabei können Daten, die für die technische Umsetzung der Befehle benötigt werden, ungewollt an externe Anbieter weitergeleitet werden.
Neue Skills unter falschem Namen einstellen
„Wir konnten außerdem nachweisen, dass Skills unter falschem Namen veröffentlicht werden können. So stellen beispielsweise bekannte Automobilkonzerne für ihre smarten Systeme Sprachbefehle zur Verfügung. User laden diese im Glauben herunter, dass die Skills direkt vom Unternehmen stammen. Doch das ist nicht immer der Fall“, so Martin Degeling. Zwar prüfe Amazon in einem Zertifizierungsverfahren alle angebotenen Skills. Doch dieses sogenannte Skill Squatting, also das Übernehmen von schon vorhandenen Anbieternamen und -funktionen, falle oftmals nicht auf.
„In einem Versuch haben wir selbst Skills im Namen eines großen Unternehmens veröffentlichen können. Hier können durchaus wertvolle Informationen von Nutzer*innen abgegriffen werden“, erklärt der Forscher. Wenn also ein Automobilanbieter für sein Smart-System im Auto beispielsweise noch keinen Skill entwickelt hat, um die Musik im Auto lauter oder leiser zu machen, könnten Angreiferinnen und Angreifer dies unter seinem Namen tun. „Sie können das Vertrauen der User in den bekannten Namen und in Amazon ausnutzen, um persönliche Informationen wie Standortdaten oder Nutzerverhalten abzugreifen“, so Degeling. Kriminelle können aber nicht direkt verschlüsselte Daten abgreifen oder Befehle in bösartiger Absicht verändern, um das smarte Auto zu manipulieren, beispielsweise um die Autotüren zu öffnen. In Zukunft müssen Nutzerinnen und Nutzer aber damit rechnen, dass es Angriffe ähnlich dem E-Mail-Phishing auch über Sprachassistenten geben wird.
Amazon-Kontrolle umgehen
Die Forscher machten noch ein anderes Sicherheitsrisiko aus: „Wir konnten feststellen, dass die Skills von den Anbietern im Nachhinein noch geändert werden können“, erklärt Christopher Lentzsch vom Lehrstuhl für Informations- und Technikmanagement der RUB. Diese Lücke relativiert also auch die Sicherheit des vorherigen Zertifizierungsprozesses durch Amazon. „Angreifer*innen könnten ihren Sprachbefehl nach einiger Zeit so umprogrammieren, dass sie beispielsweise nach den Kreditkartendaten der User fragen“, so Lentzsch weiter. In der Prüfung von Amazon fallen solche Aufforderungen in der Regel auf und werden nicht zugelassen – durch den Trick der nachträglichen Änderung des Programms kann diese Kontrolle umgangen werden.
Mangelhafte Datenschutzerklärungen
Zusätzlich zu diesen Sicherheitsrisiken wies das Forscherteam außerdem erhebliche Mängel in den Allgemeinen Datenschutzerklärungen der angebotenen Skills nach. So haben nur 24,2 Prozent der Skills überhaupt eine sogenannte Privacy Policy, in den besonders sensiblen Bereichen „Kids“ und „Gesundheit und Fitness“ sogar noch weniger. „Gerade hier sollte es starke Nachbesserungen geben“, so Degeling.
Amazon hat einige der Probleme gegenüber dem Forscherteam bestätigt und arbeitet nach eigenen Angaben an Gegenmaßnahmen.
Förderung
Die Arbeiten wurden unterstützt von der National Science Foundation (CNS-1849997) und dem Land NRW.
Wissenschaftlicher Ansprechpartner:
Dr. Martin Degeling
Lehrstuhl Systemsicherheit
Horst-Görtz-Institut für IT-Sicherheit
Ruhr-Universität Bochum
E-Mail: martin.degeling@rub.de
Originalpublikation:
Christopher Lentzsch, Sheel Jayesh Shah, Benjamin Andow, Martin Degeling, Anupam Das, William Enck: Hey Alexa, is this skill safe?: Taking a closer look at the Alexa Skill ecosystem, Network and Distributed System Security Symposium (NDSS), 2021, Paper-Download: https://www.alexa-skill-analysis.org/#paper
Technische Details und die wissenschaftliche Originalarbeit stellen die Forscher auf der Website www.alexa-skill-analysis.org zur Verfügung.