Scoperta vulnerabilità Siri, Alexa e SVoice

132 Views 0 Comment

Assistenti virtuali come Siri di Apple o Alexa di Amazon, che rispondono a comandi vocali, sarebbero vulnerabili agli ultrasuoni. Un team dell’Università cinese di Zheijiang ha scoperto un modo per violare questi software dando loro dei comandi tramite ultrasuoni, onde sonore a frequenze non udibili dalle orecchie umane.

Sfruttando onde non udibili gli Hacker, spiegano i ricercatori, potrebbero chiedere agli assistenti virtuali di aprire link con virus, in grado di infettare i dispositivi su cui sono installati. Un comando registrato a ultrasuoni non verrebbe sentito dalle persone, ma sarebbe captato perfettamente dal microfono di smartphone o assistenti da salotto.

I ricercatori hanno tradotto i comandi della voce umana in frequenze ultrasoniche, poi le hanno riprodotte da un normale smartphone con accessori di uso comune. I sistemi hanno riconosciuto ed eseguito i comandi. Non solo Siri di Apple e Alexa di Amazon, ma anche Google Assistant e Samsung S Voice.

C’è però una buona notizia, la tecnica funziona solo se chi riproduce gli ultrasuoni si trova molto vicino al dispositivo da hackerare e se la potenziale vittima ha l’assistente vocale sbloccato e non fa caso alla notifica di attivazione in seguito a un comando. I produttori, rilevano i ricercatori, potrebbero facilmente eliminare questo rischio programmando gli assistenti a ignorare comandi a frequenze che un essere umano non può produrre.

Alla prossima!


Continua a seguirci su:

Facebook Instagram Telegram Rss