Divieti sull'uso dell'intelligenza artificiale in Europa: cosa prevede l'AI Act

Seguici su Google News

L'Unione Europea ha introdotto regole severe in materia di intelligenza artificiale, mirando a proteggere i diritti fondamentali dei cittadini e la sicurezza pubblica. Con l'entrata in vigore del divieto di applicazione di determinate pratiche a partire dal 2 febbraio 2025, l'AI Act si propone come il primo provvedimento legislativo al mondo a regolamentare l'uso dell'IA attraverso un approccio che tiene conto dei rischi connessi. Nonostante le critiche ricevute, comprese le preoccupazioni legate alle eccezioni per la sicurezza nazionale, le nuove normative pongono limiti chiari all'utilizzo dell'intelligenza artificiale nell'Unione.

Pratiche vietate dall'AI Act

Il 2 febbraio 2025 segnerà un punto di non ritorno per l'uso dell'intelligenza artificiale in Europa. Diversi usi della tecnologia sono stati formalmente dichiarati inaccettabili, in quanto riconosciuti come potenzialmente dannosi per i diritti umani o la sicurezza. La normativa stabilisce esplicitamente le pratiche considerate pericolose:

Riconoscimento facciale e manipolazione del comportamento

L'AI Act vieta l'uso del riconoscimento facciale per la creazione di database basati su immagini estratte senza consenso, comprese quelle acquisite tramite sistemi di videosorveglianza. Solo in ambito di sicurezza con la supervisione legale è possibile utilizzare questa tecnologia. Inoltre, è stato stabilito il divieto per i sistemi di intelligenza artificiale che tentano di manipolare le persone in modo subliminale, colpendo in particolare soggetti vulnerabili.

Categorizzazione e polizia predittiva

Vietata anche la categorizzazione biometrica, che coinvolge la classificazione delle persone basata su caratteristiche sensibili come razza o religione. Analogamente, l'uso di sistemi di polizia predittiva, che prevedono crimini sulla base di profili individuali senza ulteriori prove, è anch'esso proibito. Un altro divieto significativo riguarda il riconoscimento delle emozioni nei contesti lavorativi e scolastici, salvo in casi di natura medica.

Social scoring

L'imposizione di punteggi ai cittadini per la valutazione del comportamento sociale è un'altra pratica chiaramente vietata. Questa metodologia, già presente in contesti come quello cinese, è considerata una violazione dei diritti fondamentali e non potrà trovare applicazione nel territorio dell'Unione Europea.

Sanzioni e le autorità di vigilanza

Le sanzioni per le aziende che violeranno tali disposizioni possono essere severissime, con multe che possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo globale. Pertanto, l'adesione all'AI Act non è solo una questione di etica o responsabilità sociale, ma una necessità legale impellente per le organizzazioni che operano nell'Unione.

La supervisione del rispetto delle norme è affidata a specifiche autorità che ogni paese membro dovrà istituire. In Italia, sono stati identificati due enti fondamentali: l'Agenzia per l’Italia Digitale , con l'incarico di promuovere l'uso responsabile della tecnologia, e l'Agenzia per la Cybersicurezza Nazionale , che si occupa di monitorare e far rispettare le regole vigenti. Entrambi gli enti devono operare in modo indipendente e imparziale, libero da conflitti d'interesse.

La struttura di vigilanza europea

A livello europeo, è stato istituito l'European AI Office per sostenere l'attuazione delle normative e monitorare i modelli di intelligenza artificiale. Allo stesso tempo, il Comitato europeo per l'intelligenza artificiale, composto da rappresentanti dei vari Stati membri, avrà il compito di fornire consulenza e coordinare l'operato delle autorità nazionali. Questo sforzo collettivo è essenziale affinché l'AI Act possa essere implementato in modo effettivo ed equo in tutto il continente.

Prossime tappe e scadenze cruciali

Il percorso per la piena attuazione dell'AI Act prevede diverse fasi. A partire dal 2 agosto 2025, si applicheranno le norme di governance relative ai modelli generici di intelligenza artificiale. Successivamente, a partire dal 2 agosto 2026, entreranno in vigore le regole riguardanti i sistemi di intelligenza artificiale ad alto rischio. Durante questo periodo di transizione, le aziende e le istituzioni dovranno adattarsi alle normative per evitare severe sanzioni.

Particolare attenzione deve essere riservata alla preparazione delle autorità di controllo, la cui efficacia si rivelerà decisiva per l'applicazione delle nuove regole e per garantire un uso responsabile della tecnologia nei vari ambiti della vita quotidiana.

Seguici su Telegram per ricevere le migliori offerte tech
Argomenti:

Chi siamo?

OutOfBit è un progetto nato nel Maggio 2013 da un’idea di Vittorio Tiso e Khaled Hechmi. Il progetto nasce per creare un sito di blogging che sappia differenziarsi ed appagare il lettore al fine di renderlo parte fondamentale del blog stesso.
Entra nello staff
COPYRIGHT © 2023 OUTOFBIT P.IVA 04140830243, TUTTI I DIRITTI RISERVATI.
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram