Elk techbedrijf heeft inmiddels wel zijn eigen digitale assistent. Het begon allemaal met Apples Siri, daarna volgden Amazon Alexa en Google Assistant. Stel een vraag en de assistent antwoordt of voert een actie op je telefoon of slimme speaker uit. Welke stem de vraagt stelt, maakt daarbij niets uit. Onderzoekers van de universiteit Princeton hebben dit feit gebruikt om de digitale assistenten van Google en Amazon te activeren met spraakopdrachten die als ultrageluid werden verzonden. Deze zijn voor mensen niet waarneembaar en kunnen dus de assistenten activeren zonder dat jij daar iets van merkt.
Zo werkt de aanval
Voor de aanval werden opdrachten door een computerstem ingesproken. Vervolgens werden deze dusdanig bewerkt dat ze als ultrageluid worden uitgegeven. Het menselijke gehoor kan deze frequenties niet registreren, de microfoons in smartphones en slimme speakers hebben hier echter geen moeite mee. In hun publicatie laten de onderzoekers zien dat bij de microfoons bijna exact dezelfde gegevens binnenkomen als bij een normale spraakopdracht.
Nexus 5X en Amazon Echo
Slachtoffer waren een Google Nexus 5X met Android 7.1.2 en een Echo-luidspreker van Amazon. Bij de smartphone werkte de aanval op Google Assistant altijd, bij de slimme speaker met Alexa daarentegen maar bij 40 van de 50 pogingen. Dat de Echo beter beveiligd was tegen dergelijke aanvallen, ligt volgens de onderzoekers aan de plastic behuizing van de microfoons. Bij gewone spraakopdrachten hebben deze geen effect, bij ultrageluid is dat blijkbaar anders.
Erger op de smartphone
De aanval is sowieso erger bij Google Assistant op de smartphone. Deze geeft namelijk geen gesproken feedback en dus heb je het helemaal niet in de gaten als zo’n aanval plaatsvindt. Het is bijvoorbeeld denkbaar dat iemand in een restaurant gericht een aanval uitvoert en jij er niets van meekrijgt. Ook kun je bij Google het signaalwoord om de assistent te activeren niet veranderen. Bij Amazons Alexa kan dat wel.