L’Ai Act è stato ufficialmente approvato dal Parlamento europeo, diventando così la prima legge al mondo sull’intelligenza artificiale. L’iter legislativo si è concluso con 523 voti a favore, 46 contrari e 49 astenuti. La legge entrerà in vigore tra due anni.
L’Unione europea diventa così la prima al mondo a dotarsi di norme per regolamentare l’Intelligenza artificiale.
“Accolgo con favore lo straordinario sostegno del Parlamento europeo al nostro AI Act, le prime regole complete e vincolanti al mondo per un’AI affidabile. L’Europa è ora un regolatore globale degli standard nel campo dell’intelligenza artificiale. Stiamo regolamentando il meno possibile, ma quanto necessario!», ha commentato così su X il commissario Ue al mercato interno Thierry Breton.
Che cos’è l’Ai Act
L’Ai Act rappresenta un regolamento pionieristico che si applicherà uniformemente in tutti gli Stati membri dell’UE, composto da 85 articoli e allegati. È il primo testo legislativo che mira a regolare in modo completo il campo dell’intelligenza artificiale. Originariamente proposto nel 2021, è stato arricchito con ulteriori emendamenti nel corso del tempo. Lo scopo principale del regolamento è garantire che la tecnologia sia conforme ai diritti e ai valori dell’Unione, tra cui la supervisione umana, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale.
Una caratteristica chiave dell’Ai Act è la classificazione delle applicazioni di intelligenza artificiale in base ai livelli di rischio associati. La Commissione Europea ha identificato quattro livelli di rischio:
- Rischio inaccettabile: comprende i sistemi che violano i valori fondamentali dell’UE e non saranno permessi all’interno dei confini dell’UE.
- Rischio alto: riguarda i sistemi con un impatto controverso sulla sicurezza e sui diritti delle persone. Sebbene non sia vietato l’uso, sono richiesti determinati requisiti per garantire la sicurezza e la protezione dei diritti.
- Rischio limitato: include i sistemi che non rappresentano un pericolo significativo e devono soddisfare un insieme limitato di requisiti, inclusa la trasparenza nell’uso dell’IA.
- Rischio minimo: in questa categoria non sono previsti obblighi legali specifici.
Ai Act: cosa è vietato
In Europa, diverse categorie di sistemi basati sull’intelligenza artificiale saranno soggette a varie restrizioni, fino ad essere completamente vietate.
L’AI Act vieta l’uso dell’intelligenza artificiale per l’identificazione biometrica remota in tempo reale e a posteriori negli spazi pubblici, così come la categorizzazione basata su caratteristiche sensibili. Sono vietati anche i sistemi predittivi utilizzati dalla polizia, i social-scoring utilizzati dai governi per analizzare il comportamento dei cittadini e sistemi di riconoscimento emozionale in ambienti lavorativi e scolastici. Inoltre, sono stati aggiunti alla lista degli alti rischi i sistemi di intelligenza artificiale utilizzati per influenzare le elezioni e i sistemi di raccomandazione delle piattaforme di social media. Tali misure sono volte a proteggere i diritti umani e la privacy dei cittadini.
Le applicazioni di intelligenza artificiale generativa, come ChatGPT o Gemini di Google, rientrano nella categoria ad alto rischio. Le società che le sviluppano dovranno fornire informazioni dettagliate su come vengono addestrati i loro modelli di linguaggio, per rispettare le leggi europee sul copyright, e dovranno indicare chiaramente quando le immagini, i video e gli audio sono stati generati dall’intelligenza artificiale, specialmente quando ritraggono persone reali.
Altre applicazioni sono state giudicate a rischio limitato e dovranno soddisfare requisiti limitati, principalmente riguardanti la trasparenza nell’uso dell’intelligenza artificiale. Infine, le applicazioni a rischio minimo non sono soggette a obblighi legali specifici.
Ai Act: multe salate
Il regolamento prevede severe sanzioni per chi lo viola, che possono arrivare fino a 35 milioni di euro o al 7% dei ricavi globali della società responsabile.
Ai Act: le ultime novità
Rispetto alla proposta della Commissione, il regolamento introduce norme per sistemi di intelligenza artificiale (IA) per finalità generali, che devono essere trasparenti e rispettare le leggi UE sul diritto d’autore durante l’addestramento dei modelli. I modelli più potenti, con possibili rischi sistemici, devono seguire obblighi aggiuntivi come valutazioni e mitigazioni dei rischi e segnalazione degli incidenti. I deepfake devono essere chiaramente etichettati. Gli Stati membri dell’UE devono istituire spazi di sperimentazione normativa e prove in condizioni reali (sandbox) per agevolare lo sviluppo e l’addestramento di sistemi di IA innovativi da parte di PMI e start-up.
Aic Act: in vigore tra due anni
Il regolamento diventerà efficace 20 giorni dopo la sua pubblicazione nella Gazzetta Ufficiale dell’Unione Europea e sarà applicato dopo 24 mesi dalla data di entrata in vigore. Tuttavia, i divieti sulle pratiche proibite saranno applicati sei mesi dopo l’entrata in vigore, i codici di buone pratiche nove mesi dopo, le norme sui sistemi di intelligenza artificiale (IA) per finalità generali, compresa la governance, saranno applicate dopo 12 mesi, mentre gli obblighi per i sistemi ad alto rischio saranno applicati dopo 36 mesi.
Ultimo aggiornamento ore 15,40