L'Unione Europea ha introdotto regole severe in materia di intelligenza artificiale, mirando a proteggere i diritti fondamentali dei cittadini e la sicurezza pubblica. Con l'entrata in vigore del divieto di applicazione di determinate pratiche a partire dal 2 febbraio 2025, l'AI Act si propone come il primo provvedimento legislativo al mondo a regolamentare l'uso dell'IA attraverso un approccio che tiene conto dei rischi connessi. Nonostante le critiche ricevute, comprese le preoccupazioni legate alle eccezioni per la sicurezza nazionale, le nuove normative pongono limiti chiari all'utilizzo dell'intelligenza artificiale nell'Unione.
Indice dei contenuti
Pratiche vietate dall'AI Act
Il 2 febbraio 2025 segnerà un punto di non ritorno per l'uso dell'intelligenza artificiale in Europa. Diversi usi della tecnologia sono stati formalmente dichiarati inaccettabili, in quanto riconosciuti come potenzialmente dannosi per i diritti umani o la sicurezza. La normativa stabilisce esplicitamente le pratiche considerate pericolose:
Riconoscimento facciale e manipolazione del comportamento
L'AI Act vieta l'uso del riconoscimento facciale per la creazione di database basati su immagini estratte senza consenso, comprese quelle acquisite tramite sistemi di videosorveglianza. Solo in ambito di sicurezza con la supervisione legale è possibile utilizzare questa tecnologia. Inoltre, è stato stabilito il divieto per i sistemi di intelligenza artificiale che tentano di manipolare le persone in modo subliminale, colpendo in particolare soggetti vulnerabili.
Categorizzazione e polizia predittiva
Vietata anche la categorizzazione biometrica, che coinvolge la classificazione delle persone basata su caratteristiche sensibili come razza o religione. Analogamente, l'uso di sistemi di polizia predittiva, che prevedono crimini sulla base di profili individuali senza ulteriori prove, è anch'esso proibito. Un altro divieto significativo riguarda il riconoscimento delle emozioni nei contesti lavorativi e scolastici, salvo in casi di natura medica.
Social scoring
L'imposizione di punteggi ai cittadini per la valutazione del comportamento sociale è un'altra pratica chiaramente vietata. Questa metodologia, già presente in contesti come quello cinese, è considerata una violazione dei diritti fondamentali e non potrà trovare applicazione nel territorio dell'Unione Europea.
Sanzioni e le autorità di vigilanza
Le sanzioni per le aziende che violeranno tali disposizioni possono essere severissime, con multe che possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo globale. Pertanto, l'adesione all'AI Act non è solo una questione di etica o responsabilità sociale, ma una necessità legale impellente per le organizzazioni che operano nell'Unione.
La supervisione del rispetto delle norme è affidata a specifiche autorità che ogni paese membro dovrà istituire. In Italia, sono stati identificati due enti fondamentali: l'Agenzia per l’Italia Digitale , con l'incarico di promuovere l'uso responsabile della tecnologia, e l'Agenzia per la Cybersicurezza Nazionale , che si occupa di monitorare e far rispettare le regole vigenti. Entrambi gli enti devono operare in modo indipendente e imparziale, libero da conflitti d'interesse.
La struttura di vigilanza europea
A livello europeo, è stato istituito l'European AI Office per sostenere l'attuazione delle normative e monitorare i modelli di intelligenza artificiale. Allo stesso tempo, il Comitato europeo per l'intelligenza artificiale, composto da rappresentanti dei vari Stati membri, avrà il compito di fornire consulenza e coordinare l'operato delle autorità nazionali. Questo sforzo collettivo è essenziale affinché l'AI Act possa essere implementato in modo effettivo ed equo in tutto il continente.
Prossime tappe e scadenze cruciali
Il percorso per la piena attuazione dell'AI Act prevede diverse fasi. A partire dal 2 agosto 2025, si applicheranno le norme di governance relative ai modelli generici di intelligenza artificiale. Successivamente, a partire dal 2 agosto 2026, entreranno in vigore le regole riguardanti i sistemi di intelligenza artificiale ad alto rischio. Durante questo periodo di transizione, le aziende e le istituzioni dovranno adattarsi alle normative per evitare severe sanzioni.
Particolare attenzione deve essere riservata alla preparazione delle autorità di controllo, la cui efficacia si rivelerà decisiva per l'applicazione delle nuove regole e per garantire un uso responsabile della tecnologia nei vari ambiti della vita quotidiana.