Dispositivi Smart Home e assistenti virtuali hanno un grande fascino ma, d’altro canto, risultano anche piuttosto spaventosi per quanto riguarda la privacy.

Visto che si tratta di tecnologie relativamente nuove, si prestano particolarmente a potenziali attacchi informatici e pericoli simili: si tratta di semplici paure legate a una nuova tecnologia o vi è un fondo di realtà? Alcuni ricercatori avrebbero fatto scoperte a dir poco sconvolgenti riguardo le vulnerabilità degli assistenti virtuali.

Siri, Alexa e Google Assistant: quanto sono pericolosi per la nostra privacy?

Negli ultimi due anni, alcuni ricercatori in cinesi e statunitensi hanno iniziato a dimostrare di poter inviare comandi nascosti, non rilevabili all’orecchio umano, tramite Siri di Apple, Alexa di Amazon e Google Assistant. All’interno dei laboratori universitari, i ricercatori sono stati in grado di attivare segretamente i sistemi di intelligenza artificiale su smartphone e altoparlanti intelligenti, facendoli comporre numeri telefonici o aprire siti web.

Inutile sottolineare come, nelle mani sbagliate, quest tecnologia potrebbe essere utilizzata per compiere una serie di azioni potenzialmente criminali.

Non solo: presso l’Università della California a Georgetown, alcuni studenti hanno dimostrato come è possibile incorporare comandi vocali sottotraccia nelle registrazioni musicali. Di fatto, gli assistenti virtuali potrebbero inserire facilmente dei messaggi subliminali durante la riproduzione di un brano.

Un’intelligenza artificiale ancora non così “intelligente”

Questa serie di test, oltre a risultare piuttosto inquietanti, dimostrano come l’intelligenza artificiale sia ancora in una sorta di fase primordiale.

Non si tratta di una novità, visto che in passato sono stati fatti test in questo senso, dimostra come per esempio, sia facile confondere le automobili guidate da IA semplicemente attaccando piccoli adesivi sui segnali stradali.

La strada per ottenere un’intelligenza artificiale reale, è davvero ancora molto lunga a quanto pare.