Google Assistant, Siri e Alexa possono essere attaccati con “messaggi subliminali” all’interno di musica o podcast

Vezio Ceniccola

Google Assistant, Apple Siri e Amazon Alexa stanno entrando sempre più di frequente nelle nostre vite, grazie all’integrazione su una vasta gamma di prodotti. La loro gioventù tecnologica è però ancora uno scoglio non indifferente per quanto riguarda la sicurezza, come dimostra anche una nuova ricerca condotta dall’università di Berkeley.

Stando agli esperimenti condotti da alcuni ricercatori, gli assistenti vocali sarebbero attaccabili e controllabili tramite suoni nascosti in canzoni, podcast o trasmissioni radiofoniche, spesso non riconoscibili dall’orecchio umano ma interpretabili solo dal software. Attraverso questi comandi vocali nascosti, gli attaccanti potrebbero attivare le funzioni degli assistenti su smartphone, smart speaker o altri dispositivi, andando a controllare anche tutti gli altri prodotti collegati.

Ad esempio, sarebbe possibile inviare comandi nascosti per attivare Google Assistant e aprire porte in un’abitazione, comprare merce online o fare telefonate ai numeri in rubrica, sfruttando i dati dell’utente proprietario dell’account senza che il soggetto possa accorgersene.

LEGGI ANCHE: Google Assistant chiamerà al vostro posto

Le modalità d’inserimento di questi messaggi subliminali all’interno di musica o discorsi sono molteplici. I ricercatori di Berkley hanno utilizzato le particolarità del riconoscimento vocale per trasmettere i messaggi in modo che venissero interpretati solo dal software, mentre quelli della Zhejiang University sono riusciti a farlo sfruttando le frequenze ultrasoniche, non udibili dall’orecchio umano ma perfettamente ascoltabili dai microfoni dei dispositivi smart.

Al momento non ci sono evidenze che queste modalità di attacco siano già state realmente utilizzate da malintenzionati, ma rimane una certa possibilità che questo possa accadere in futuro. La prudenza, in questi casi, non è mai troppa, ma sembra ci sia ancora molto da fare per quanto riguarda la sicurezza degli assistenti vocali, dunque  non abbassate mai la guardia.

Via: 9to5GoogleFonte: The New York Times
  • Marco Lazzarotto

    Mi è venuto in mente Captain Crunch…

  • Danilo

    Cortana no? Meglio così almeno qualche assistente vocale si è salvato 🙂

    • Steve

      non l’hanno considerata perché diffusa con un numero prossimo allo 0