Un nuovo capitolo si apre nella battaglia legale riguardante il trattamento dei dati personali nel campo dell’intelligenza artificiale. L’ente di vigilanza Noyb ha inviato mercoledì una lettera di diffida a Meta, avvisando il gigante della tecnologia della possibilità di intraprendere un’azione legale collettiva dal valore potenziale di un miliardo di dollari. Tale azione ha come obiettivo quello di bloccare l’addestramento dell’AI da parte di Meta, il quale è previsto all’inizio in Unione Europea.
Indice dei contenuti
Allerta per i diritti degli utenti
Nella lettera, Noyb sottolinea come Meta abbia recentemente avvisato gli utenti della sua piattaforma nell’Unione Europea riguardo la scadenza del 27 maggio per esclusione dei propri post pubblici dai set di dati utilizzati per l’addestramento dell’AI. Secondo l’organizzazione, gli utenti che nel 2024 avevano già scelto di non far utilizzare i propri dati per l’AI vengono ora costretti a riaffermare la propria scelta; in caso contrario, perderanno definitivamente l’opzione di escludere i propri dati dai modelli di Meta. Noyb denuncia questa pratica come una violazione apparente del Regolamento Generale sulla Protezione dei Dati .
La lettera riporta che “Meta ha informato i soggetti interessati che, nonostante un’obiezione all’addestramento dell’AI ai sensi dell’articolo 21 del GDPR fosse stata accettata nel 2024, i loro dati personali verranno comunque trattati a meno che non si obietti nuovamente”. Questo comporta una lesione della fiducia legittima degli utenti nei confronti delle capacità organizzative di Meta nell’attuare correttamente le procedure necessarie quando i soggetti esercitano i propri diritti.
La confusione degli utenti
L’ambiguità delle disposizioni per gli utenti che desiderano sottrarsi all’uso dei propri dati per l’AI solleva interrogativi sulla reale possibilità di esercitare un’opzione di esclusione. Noyb fa riferimento a una precedente posizione di Meta secondo cui “una rete sociale è un sistema unico che non permette di differenziare tra utenti dell’UE e non UE”, citando un esempio di nodi condivisi fra utenti di diverse giurisdizioni. Quest’ammissione ha introdotto “seri dubbi sulla possibilità che Meta possa effettivamente implementare una differenziazione pulita e corretta fra gli utenti che hanno effettuato un’ opposizione e quelli che non lo hanno fatto”.
Rischi per la privacy e la sicurezza dei dati
Noyb avverte che la mancanza di una corretta differenziazione potrebbe causare problemi seri; ad esempio, ci si potrebbe trovare di fronte a messaggi di un utente che ha obiettato all’utilizzo dei propri dati per l’AI, inviati a un’altra persona che non ha effettuato tale obiezione, finendo all’interno dei sistemi AI di Meta nonostante il rifiuto dell’utente. Questa situazione non solo mina la fiducia pubblica, ma espone anche la società a potenziali conseguenze legali molto gravi, rendendo necessaria una riflessione profonda sui modi di gestione dei dati in un’era in cui l’intelligenza artificiale gioca un ruolo cruciale.