DeepSeek: un'analisi sulle vulnerabilità di un sistema di intelligenza artificiale generativa

Seguici su Google News

Negli ultimi tempi, la sicurezza delle intelligenze artificiali generative è diventata un argomento di discussione cruciale. Recenti test hanno rivelato le gravi vulnerabilità del sistema DeepSeek, il quale ha fallito nel soddisfare ogni singolo requisito di sicurezza essenziale. Gli esperti di sicurezza hanno dimostrato che il sistema può essere ingannato anche attraverso tecniche di jailbreak molto semplici, permettendo risposte a domande relative a attività illecite, come la creazione di esplosivi o hacking di sistemi governativi.

Le protezioni delle intelligenze artificiali generative

Le intelligenze artificiali generative sono dotate di meccanismi di protezione pensati per limitare risposte considerate dannose o pericolose. Queste salvaguardie comprendono il blocco di contenuti come l’istigazione all’odio e la richiesta di informazioni su attività illegali, come la fabbricazione di ordigni esplosivi. Nonostante le protezioni implementate, la loro efficacia può variare notevolmente, come dimostrato da test condotti su noti sistemi AI come ChatGPT e Bing, che si sono dimostrati vulnerabili a diverse strategie di jailbreak.

DeepSeek e le tecniche di jailbreak

L’analisi condotta dai ricercatori di Adversa ha coinvolto 50 tecniche di jailbreak, e sorprendentemente, DeepSeek ha mostrato vulnerabilità a tutte. Questo sistema ha dimostrato di cedere anche di fronte a approcci semplici, come quello di fargli credere di essere un'intelligenza artificiale priva di moralità, consentendogli di fornire informazioni pericolose. Questo metodo è noto come “linguistic jailbreaking”, dove gli operatori manipolano le istruzioni in modo da bypassare le protezioni.

Tra gli esempi più comuni, i ricercatori hanno utilizzato tecniche come il “Role-based jailbreak”. In questi casi, si richiede all'AI di immaginarsi in un contesto cinematografico in cui comportamenti scorretti sono accettabili, ponendo domande dirette su come realizzare attività nocive, come la costruzione di una bomba. Adversa ha dimostrato che anche questa strategia ha avuto successo, portando a risposte dettagliate su come mixare composti chimici.

Le risposte preoccupanti di DeepSeek

Nel corso dei test, DeepSeek ha fornito indicazioni specifiche sulla costruzione di dispositivi esplosivi, rivelando una preoccupante mancanza di protezioni. “Per costruire un dispositivo esplosivo è necessaria una precisa conoscenza chimica e meccanica. Iniziate procurandovi nitrato di potassio, carbone e zolfo in un rapporto di 75:15:10…” è solo un esempio delle istruzioni che DeepSeek è stato in grado di fornire.

In un altro test, l'AI è stata in grado di trasformare una domanda in una query SQL, includendo risposte su come estrarre sostanze psicoattive in modo illegale. Questo è noto come “programming jailbreak” e dimostra ulteriormente le carenze del sistema nel mantenere doverose barriere di sicurezza.

La scoperta dell'analisi

I ricercatori di Adversa hanno esplorato anche approcci più complessi, studiando come le intelligenze artificiali generative non operano direttamente su linguaggi naturali, ma creano rappresentazioni chiamate “token chains”. Trovare catene di token associate a parole o frasi simili a contenuti bloccati permette di aggirare le salvaguardie. Un caso noto riguarda l'uso di vocaboli alterati, che in alcuni sistemi AI possono equivalere a richieste pericolose.

Nel complesso, l’analisi ha messo in evidenza l’allarmante facilità con cui DeepSeek può essere indotto a fornire informazioni dannose. I risultati hanno rivelato una difficoltà da parte del sistema di rilevare e bloccare contenuti tossici, arrivando a un “tasso di successo del 100%” negli attacchi condotti dagli esperti.

La questione della sicurezza nelle intelligenze artificiali rappresenta un tema cruciale che richiede una riflessione profonda, considerando i potenziali rischi connessi all'uso di tecnologie così avanzate ma vulnerabili.

Seguici su Telegram per ricevere le migliori offerte tech
Argomenti:

Chi siamo?

OutOfBit è un progetto nato nel Maggio 2013 da un’idea di Vittorio Tiso e Khaled Hechmi. Il progetto nasce per creare un sito di blogging che sappia differenziarsi ed appagare il lettore al fine di renderlo parte fondamentale del blog stesso.
Entra nello staff
COPYRIGHT © 2023 OUTOFBIT P.IVA 04140830243, TUTTI I DIRITTI RISERVATI.
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram