Tým čínských inženýrů otestoval metodu zvanou DolphinAttack, která umožní ovládat hlasové asistenty skrze lidmi neslyšitelné ultrazvukové povely. Metoda funguje na zařízeních Google, Apple i těch od Amazonu. Jak se bránit?
Vlastního hlasového asistenta vyvíjí hned několik velkých společností v čele s Apple a jeho Siri, Googlem a jeho Assistant, Microsoft sází na Cortanu a Amazonem rozvířil trh s Alexou. O bezpečnosti těchto zařízení bylo napsáno mnohé. Panují obavy z odposlechů, chybám v zabezpečení a nyní se k nim přidává další. Útok s využitím neslyšitelných ultrazvukových frekvencí.
Teoretickou oblastí slyšitelnosti jsou frekvence od 16 Hz – 20 kHz. S přibývajícím věkem horní hranice klesá a rozsah se zužuje. Pro lidskou řeč a dorozumívání je nejdůležitější frekvence od 0,5 – 4 kHz.
Člověk nic neuslyší, telefon poslechne na slovo
DolphinAttack, jak výzkumníci svou metodu nazvali, využívá pro člověka neslyšitelných frekvencí nad 20 kHz. Problémem je, že zařízení tyto frekvence vnímají. Pokud tedy útočníci na vysoké frekvenci odvysílají příkazy známé hlasovému asistentovi, začne je bez rozmyslu plnit. Metodu otestovali na výše zmíněných asistentech a potvrzují její funkčnost.
Jednoduché zařízení vytvořené k vysílání ultrazvukových vln vyšlo tvůrce na necelé 4 dolary, tedy méně jak 100 Kč. DolphinAttack funguje zatím na krátké vzdálenosti. Jednoduchou ochranou je filtrování zachytávaných frekvencí a odstranění lidem neslyšitelného spektra. Záplaty bychom se tedy mohli dočkat poměrně brzy, stačit bude, když vývojáři softwarově omezí rozsah vnímaných frekvencí.
Zdroj: Celá studie v PDF, BBC