Breviario: A

AI ACT (ARTIFICIAL INTELLIGENCE ACT)

L’AI Act è il Regolamento (UE) 2024/1689 dell’Unione europea che disciplina lo sviluppo e l’utilizzo di sistemi e modelli di intelligenza artificiale (IA), garantendo sicurezza, rispetto dei diritti fondamentali e promuovendo l’innovazione. Uno degli obiettivi principali è evitare che i singoli Stati membri introducano normative nazionali disomogenee, prevedendo invece una normativa unitaria in UE, a supporto del mercato unico e favorendo la certezza del diritto. Ciò dovrebbe facilitare lo sviluppo e l’adozione dell’IA in tutta l’Unione, rendendola competitiva su scala globale.

L’AI Act è entrato in vigore il 2 agosto 2024, sebbene la diretta applicabilità del regolamento sia stata differita ai mesi e anni successivi, a seconda dei singoli ambiti regolamentati.
La tecnica normativa dell’AI Act si fonda su di un approccio basato sul rischio (risk-based approach), classificando i sistemi di IA in base al loro potenziale impatto sui diritti fondamentali e sulla sicurezza. Una prima macro-distinzione viene effettuata tra «sistemi di IA», ossia sistemi software che incorporano elementi di IA (ad es., un software di credit scoring bancario, oppure ChatGPT), e «modelli di IA» per finalità generali, ossia i singoli componenti intelligenti dei sistemi di IA (es. i Large Language Models come GPT-4o).
I sistemi di IA vengono classificati come segue, in base alla finalità di utilizzo:
rischio inaccettabile (art. 5): include sistemi di IA che producono rischi considerati inaccettabili e non mitigabili, quali ad esempio sistemi di social scoring, sistemi di riconoscimento delle emozioni utilizzati fuori dall’ambito medico e sistemi biometrici di catalogazione in categorie protette (es., sulla base dell’etnia);
alto rischio (art. 5): include tecnologie che operano in settori critici come la sanità, l’istruzione, l’occupazione, la biometria e le infrastrutture critiche. Questi sistemi devono rispettare requisiti rigorosi in termini di sicurezza, trasparenza e supervisione umana;
rischio limitato (art. 50): Comprende applicazioni come chatbot o deepfake, per cui si richiedono livelli di trasparenza adeguati, ad esempio informando gli utenti che stanno interagendo con un sistema di IA e non con un essere umano;
rischio minimo: qualsiasi sistema di IA che non rientra nelle precedenti categorie (es., filtri antispam, IA utilizzata nei videogiochi) è considerato a rischio minimo e, come tale, non è sottoposto ad alcun obbligo dall’AI Act, anche se potrebbe ricadere nell’area di applicazione di altre normative (es., GDPR, laddove vi sia un trattamento di dati personali).
I modelli di IA per finalità generali vengono suddivisi come segue, a prescindere dalla finalità di utilizzo (trattandosi per definizione di modelli che possono essere utilizzati per molteplici finalità, ad esempio integrandoli in altri software):
modelli di IA per finalità generali: tecnologie come i Large Language Model che generano contenuti audio, video e/o testuali, autonomamente. I fornitori di questi modelli devono garantire trasparenza sull’origine del contenuto generato e prevedere misure a tutela del diritto d’autore, in fase di addestramento del sistema;
modelli di IA per finalità generali con rischio sistemico: modelli di IA estremamente grandi e che utilizzano vaste quantità di potere computazionale, con impatti su larga scala o in grado di influenzare interi settori economici, sociali o politici (es., GPT 4o). Per questa categoria sono previsti controlli particolarmente rigorosi e valutazioni d’impatto periodiche.
In caso di non conformità, sono previste sanzioni fino a € 35 milioni o al 7% del fatturato mondiale annuo. Per i sistemi di IA, l’enforcement è delegato ai singoli Stati membri, che dovranno designare una o più autorità di controllo nazionali. Per i modelli di IA per finalità generali, l’enforcement è invece accentrato nell’Ufficio europeo per l’IA (AI Office), presso la Commissione europea.
Al di là dell’aspetto strettamente regolatorio, l’AI Act prevede strumenti a favore dell’innovazione. Tra questi:
alfabetizzazione in materia di IA: iniziative per migliorare la comprensione dell’IA, inclusi rischi e benefici, tra cittadini, imprese e istituzioni;
spazi di sperimentazione normativa (AI Regulatory Sandboxes): ambienti di test regolamentati per le imprese che possono così sperimentare nuove tecnologie IA senza il rischio immediato di incorrere in sanzioni, favorendo lo sviluppo sicuro e conforme fin dalla progettazione.

Approfondimenti
Veale, Borgesius, Demystifying the Draft EU Artificial Intelligence Act. Analysing the good, the bad, and the unclear elements of the proposed approach, in Computer Law Review International,4, 2021
Smuha, Yeung, The European Union's AI Act: beyond motherhood and apple pie?, June 24, 2024
Inglese, Il regolamento sull’intelligenza artificiale come atto per il completamento e il buon funzionamento del mercato interno?, in Quaderni AISDUE, fascicolo speciale, 2, 2024
Cirone, L’AI Act e l’obiettivo (mancato?) di promuovere uno standard globale per la tutela dei diritti fondamentali, in Quaderni AISDUE, fascicolo speciale, 2, 2024
Contributo video

Contributo video a cura di: Davide Baldini