Gli assistenti vocali sono vulnerabili agli ultrasuoni: hacker all’attacco

Gli hacker hanno preso di mira gli assistenti vocali senza alcuna distinzione. Ecco come li controllano utilizzando gli ultrasuoni. Massima allerta.

Gli hacker si sono nel tempo perfezionati portandosi alla scoperta di nuovi e senz’altro ingegnosi modi di ledere la privacy e la riservatezza del prossimo. Lo scopo, in questo caso, è sempre lo stesso, ovvero sia quello di prendere il totale controllo dei dispositivi col preciso intento di trafugare informazioni che garantiscano loro un vantaggio strategico o economico. 

In ultima battuta, dopo i fruttuosi tentativi di raccolta dati portatisi avanti tramite circuito di attacco a numeri telefonici della settimana scorsa, si è registrato un altro episodio che ha visto coinvolti i sistemi ad intelligenza artificiale di Siri, Alexa e di tutti gli altri assistenti digitali con funzione di attivazione e risposta a comando vocale.

Per garantirsi l’accesso a detti sistemi digitali gli hacker si sono serviti delle frequenze all’ultrasuono che, come noto, non sono udibili dall’orecchio umano in quanto superiori alla soglia di percezione massima dei 20KHz. I microfoni, ad ogni modo, sono in grado di captare e di interpretare questi segnali.

La tecnica utilizzata dai malfattori ha consentito di ottenere il pieno controllo degli assistenti vocali, portati all’apertura indiscriminata di siti web dannosi o all’unlock della serratura di casa nel contesto delle Smart Home. La nuova metodologia d’attacco, classificata dai ricercatori esperti come DolphinAttack, è stata utilizzata servendosi di un sistema ben preciso, il cui funzionamento è oggetto di un videoclip di prova che riproponiamo integralmente qui di seguito.

La nota estremamente negativa di tutta questa faccenda? Non vi è alcun assistente vocale immune a questo genere di attacco. Siri, Google Assistant, Samsung S-Voice e Alexa giocano a sfavore della riservatezza, della privacy e della sicurezza dei dati e delle apparecchiature utente non soltanto su smartphone ma anche su tablet, Macbook, Amazon Echo ed addirittura autovetture top di gamma come Audi Q3. I test condotti su 16 device e 7 differenti sistemi hanno portato a conclusioni tutt’altro che rassicuranti.

I ricercatori hanno condotto le prove impartendo una serie di comandi vocali predefiniti come, ad esempio, “Chiama il numero 123-456-7890” oppure “Apri la back door” al preciso scopo di testare le vulnerabilità specifiche di detti sistemi, i quali hanno messo in chiaro un fenomeno decisamente distruttivo che rischia seriamente di influire negativamente sulla nostra vita digitale.

Unica nota positiva di tutta questa intricata faccenda è che la portata degli attacchi è circoscritta per il momento ad uno spazio fisico specifico che non supera, così come indicato dagli incaricati alla ricerca, i due metri di portata con assistente attivo.hacker suono

Entrando nel particolare si scopre che Siri e Google Assistant offrono un feedback sonoro in risposta al sopraggiungere del segnale di comando ad ultrasuoni che attiva l’assistente. In tutti gli altri casi, invece, non vi è una risposta al comando, sebbene anche per l’IA Apple e Google vi sia un margine di rischio dovuto al fatto che l’utente potrebbe non percepire il feedback.

I rischi, al momento limitati, potrebbe aumentare in virtù del fatto che tali assistenti possono essere utilizzati in luogo pubblico, dove è chiaramente più difficile salvaguardare la propria sicurezza. La soluzione al problema? Chiaramente quella di introdurre appositi filtri per le frequenze all’ultrasuono, le stesse frequenze che device come Chromecast utilizza per il pairing tra dispositivi. 

Siete stati vittima di attacchi hacker simili e vi va di rilasciare una vostra personale testimonianza al riguardo? Utilizzate pure il box dei commenti a fondo pagina e diteci la vostra in proposito.

FONTE


FONTE:
Approfondisci con: in ,