Con l'aumento della popolarità degli strumenti di intelligenza artificiale, come Gemini, è inevitabile che ci siano tentativi di sfruttarli illecitamente. Recentemente, Google ha reso noto che alcuni gruppi di minaccia avanzati, finanziati da governi di nazioni come Cina, Iran, Corea del Nord e Russia, hanno tentato di utilizzare questa tecnologia per scopi nefasti. Questa situazione mette in evidenza le sfide nel contenere abusi e la necessità di continue misure di protezione.
Uso di Gemini nel mondo della criminalità informatica
Dal lancio dei modelli di linguaggio avanzati, i criminali informatici non hanno perso tempo nel tentare di sfruttarli. Nonostante gli sforzi delle aziende per implementare misure di sicurezza, come nel caso di Gemini, ci sono sempre individui e gruppi determinati a superare questi ostacoli. Google, attraverso il proprio Threat Intelligence Group, ha recentemente pubblicato un report che analizza come i gruppi di minaccia stiano cercando di abusare di Gemini per scopi dannosi.
Un aspetto interessante emerso dal report riguarda le tipologie di attacchi identificati: da un lato, ci sono quelli che cercano di assistere l'attività criminale, ad esempio generando codice per malware; dall'altro lato, ci sono le iniziative volte a indurre l'intelligenza artificiale ad agire in modo non autorizzato, come il recupero di dati sensibili. Le due categorie di avversari principali identificate sono: le Minacce Persistenti Avanzate , che implicano gruppi di hacker supportati da stati, e le Operazioni di Informazione , più focalizzate sulla disinformazione e sulla manipolazione delle piattaforme sociali.
Attività di ricerca e sfruttamento di Gemini
Al di là di tentativi di attacco diretti, si è notato che l'uso più comune di Gemini da parte di questi gruppi è legato alla ricerca. Google ha tracciato l'attività di vari APT provenienti da paesi come Cina, Iran, Corea del Nord e Russia, evidenziando come questi gruppi si siano avvalsi di Gemini per riassumere informazioni su obiettivi militari e di intelligence, spiegare vulnerabilità software e fornire assistenza nel coding.
Inoltre, sono stati osservati anche gruppi di IO che hanno utilizzato Gemini per migliorare le loro comunicazioni, facendole sembrare più credibili o meno riconoscibili. Sfruttando le capacità di traduzione e il supporto nella scrittura, questi gruppi hanno potuto mascherare la propria identità, facilitando le loro operazioni clandestine.
Limitazioni nelle misure di sicurezza contro gli abusi
I rapporti evidenziano limiti fondamentali nelle misure di sicurezza adottate per prevenire l'abuso dell'intelligenza artificiale. Sebbene Google sia riuscita a impedire l'utilizzo di Gemini per causare danni diretti, resta il problema di come le attività illecite possano essere svolte attraverso step a bassa criticità. Coloro che intendono sfruttare Gemini riescono a farlo, segmentando le loro attività in fasi che non sollevano allarmi immediati, utilizzando di fatto l'intelligenza artificiale per semplificare il loro lavoro.
Pertanto, anche se le aziende possono adottare misure di protezione, i gruppi di minaccia continueranno a esplorare modi creativi per ottenere vantaggi. L'intelligenza artificiale, dopo tutto, è progettata per facilitare e rendere più efficiente l'esecuzione di compiti complessi.
Il rapporto completo pubblicato dal Google Threat Intelligence Group offre dettagli approfonditi sulle dinamiche in gioco, sull'evoluzione del panorama delle minacce e sull'uso di Gemini da parte di questi avversari. Un tema che richiede continua attenzione e aggiornamenti alle strategie di sicurezza informatica.