Japonští vědci objevili, že MEMS mikrofony jsou natolik citlivé, že dokáží detekovat světlo a interpretovat jej jako zvuk. Útočníci by tak mohli laserovým paprskem ovládat domácí hlasové asistenty. Obrana zatím neexistuje.
Jelikož se problém týká MEMS mikrofonů obecně, útok funguje na všechna zařízení s těmito mikrofony. Napadnutelný je tak stejným způsobem Google Asistent, Amazon Alexa, Facebook Portal i Apple Siri.
Hlasovým příkazem už otevřete garáž i nastartujete Teslu
Ovládání chytrých reproduktorů na dálku laserem nemusí znít jako velká hrozba. Pokud si ale uvědomíme, že skrze ně ovládáme celou domácnost od světel přes garážová vrata či chytré zámky u vchodových dveří, dostává hrozba reálné rozměry.
Podle Amazonu zvládne s asistentkou Alexa komunikovat přes 85 000 různých zařízení. Vzhledem k centrální roli chytrých reproduktorů v domácnosti je zranitelnost MEMS mikrofonů na pováženou. Útočník by v extrémním případě mohl mj. otevřít dveře garáže a nastartovat v nich zaparkovanou Teslu.
Útočník by dokázal chytrou domácnost ovládat i ze střechy jiné budovy
Studie byla zveřejněna výzkumníky z japonské univerzity, kteří na ní pracovali společně s kolegy z USA. Celý název studie zní Světelné příkazy: Laserové audio útoky na systémy kontrolované hlasem. „Ukazujeme, jak mohou útočníci za využití laserového paprsku předat mikrofonu audio signály,“ vysvětlují.
„Následně jsme přešli k praktickému testu, kde jsme úspěšně na dálku ovládali asistenty Amazon Alexa, Google Asistent či Apple Siri. V rámci demonstrace byl potenciální útočník vzdálen 110 metrů od chytrého reproduktoru.
Jak fungují laserové příkazy?
Světelné příkazy fungují díky vysoké citlivosti MEMS mikrofonů. Ty dokáží i laserový paprsek převést podobně jako zvuk na elektrický signál. Při správné modulaci tak dojde k podobným vibracím, které mikrofon zachytí a provede zadaný příkaz.
Pro správné provedení útoku je nutné paprsek přesně zaměřit. K tomu výzkumníci využili běžně dostupné teleskopy a teleobjektivy. Nebezpečí podobného útoku je v nenápadnosti a možnosti provést jej na dálku.
Postup útoku by mohl být následující:
- Zadání příkazu na snížení hlasitosti na minimum.
- Zadání nejčastějších příkazů pro otevření dveří či garáže.
- Vypnutí bezpečnostního systému.
Problém by mohl výrobce konečně donutit implementovat dostatečné stupně ochrany a spolehlivou identifikaci hlasu, se kterou zatím všichni bojují. V kurzu je kontrolní otázka před reagováním na příkaz či zadání hesla. Problémem je, že podobné ochrany uživatele obtěžují. Chytřejší ochranou se jeví zabudování ochrany, kdy bude hlasový asistent kontrolovat, zda příkaz dorazil ke všem mikrofonům – chytré krabičky jich totiž většinou mají hned několik.