/ Approvata dal Parlamento Europeo la nuova legge sull’Intelligenza Artificiale
Pubblicato il 15 Marzo 2024 in Impresa
Mercoledì 13.03.2024 il Parlamento ha approvato la legge sull’intelligenza artificiale (IA), che garantisce sicurezza e rispetto dei diritti fondamentali e promuove l’innovazione.
Leggi il testo approvato
Il regolamento è frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni.
L’obiettivo è di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore.
Il regolamento stabilisce obblighi per l’IA sulla base dei possibili rischi e del livello d’impatto.
Ecco una panoramica di ciò che è necessario sapere:
Divieto di alcune applicazioni di IA
Le nuove normative vietano le applicazioni di IA che minacciano i diritti dei cittadini. Questo include i sistemi di categorizzazione biometrica basati su caratteristiche sensibili, l’estrazione indiscriminata di immagini facciali, i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva e i sistemi che sfruttano le vulnerabilità umane.
Le forze dell’ordine sono soggette a limitazioni rigide sui sistemi di identificazione biometrica, con alcune eccezioni per situazioni specifiche come la ricerca di persone scomparse o la prevenzione di attacchi terroristici. L’identificazione “in tempo reale” sarà consentita solo con autorizzazioni rigorose, incluse quelle giudiziarie o amministrative.
Obblighi per sistemi ad alto rischio
Sono imposti obblighi chiari per i sistemi di IA ad alto rischio (che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto). Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base, alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici.
Per questi sistemi ci sarà l’obbigo di effettuare valutazioni del rischio, mantenere registri d’uso, essere trasparenti, precisi e assicurare una supervisione umana. I cittadini avranno diritto di presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.
Requisiti di trasparenza
I sistemi di IA devono soddisfare requisiti di trasparenza durante la fase di addestramento, con ulteriori valutazioni e mitigazioni dei rischi per i modelli più potenti. Le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali.
Supporto per l’Innovazione e le PMI
Gli Stati membri dell’UE dovranno istituire spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese “sandbox”) per facilitare la sperimentazione di sistemi di IA innovativi da parte delle PMI.
Prossimi passi
Il regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura.
Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.
Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).
Fonte: europarl.europa.eu