Home » Hacking » Hacking gli smart assistants

Hacking gli smart assistants

Una nuova forma di attacco e stata recentemente scoperta dai ricercatori cinesi e pare che sia una forma di attacco semplice.

Poiché i microfoni di assistenza vocale (Alexa, Home di Google / Assistant, Apple Siri) tendono ad avere un grande spettro audio, possono ricevere comandi che siano inauditi alle orecchie umane.

Questo attacco è stato chiamato il “DolphinAttack” (concatenato dall’autore).

Pensate a questo scenario .. entri in un edificio, in una sala conferenze, per discutere della prossima fusione. Senza la tua conoscenza il tuo assistente compone un telefono bruciatore che viene ascoltato da un avversario.

Ci sono molti attacchi possibili e l’impatto è significativo.

Nota: Alcuni assistenti tentano di identificare il discorso per escludere persone che non sono il proprietario, ma ciò non è sempre efficace (chieda a mio figlio che parli con il mio assistente che è sicuro che sia io).

Per saperne di più su DolphinAttack: Comandi vocali non udibili.

תגובות

תגובות

Questo articolo è disponibile anche in: enEnglish trTürkçe

scritto da Erez Kalman

Erez Kalman
ISC(2) CISSP-ISSAP, ISACA CISA, CCSK, C-GDPR-F, Certified Systems Analyst A vetran in the cyber/information security field with over a decade of experiance as a security architect advising major corporations world wide. Erez is also a lecturer at a number of academic institutions.

tradotto da Catalina Ivanescu

Catalina Ivanescu
Team Leader for Comdata http://www.comdata.it/ Call centre Agent for Amazon.it in italian language starting from 2014 and present https://www.amazon.it/ english, italian, spanish, german and romanian speaker PSD member, political party Student at International Relations and European Studies (3rd year) Ovidius University of Constanta, ROU