Il Parlamento europeo ha approvato l’Ai Act, l’insieme di normative il cui compito è regolamentare l’utilizzo dell’Intelligenza Artificiale. L’Unione Europea è la prima istituzione politica al mondo a dotarsi di regole sull’AI.
Obiettivo principale dell’Ai Act è quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo allo stesso tempo l’innovazione e assicurando all’Europa un ruolo guida nel settore.
Le nuove norme mettono fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini. Tra queste:
- sistemi di categorizzazione biometrica basati su caratteristiche sensibili in quanto possono essere utilizzati per discriminare le persone in base alla razza, all’etnia, al sesso, alla religione o ad altri fattori sensibili.
- estrapolazione indiscriminata di immagini facciali da internet o da sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale che può essere utilizzata per tracciare le persone senza il loro consenso e violare la loro privacy.
- sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole che possono essere utilizzati per monitorare le persone e discriminarle in base alle loro emozioni.
- sistemi di credito sociale utilizzati per controllare le persone e limitare la loro libertà.
- pratiche di polizia predittiva basate sulla profilazione o sulla valutazione delle caratteristiche di una persona che possono essere utilizzate per discriminare le persone e privarle dei loro diritti.
- sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone che possono essere utilizzati per danneggiare le persone e privarle del loro libero arbitrio.
L’Ai Act distingue tra diversi livelli di rischio, consentendo lo sviluppo e l’utilizzo di IA a basso o minimo rischio, che offrono numerosi benefici per la società. Solo le applicazioni di IA a rischio “inaccettabile” sono vietate.
In linea di principio, secondo la normativa approvata, le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. Tra queste, ad esempio, la ricerca di una persona scomparsa, la prevenzione di un attacco terroristico o l’investigazione di un reato grave.
L’Unione Europea ha previsto obblighi chiari per i sistemi di intelligenza artificiale considerati ad alto rischio, ovvero quelli che potrebbero arrecare danni significativi a diversi aspetti della nostra vita, tra cui salute, sicurezza, diritti fondamentali, ambiente, democrazia e stato di diritto. Rientrano in questa categoria sistemi utilizzati in una varietà di settori, come infrastrutture critiche, istruzione, formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche), contrasto al crimine, migrazione, gestione delle frontiere, giustizia e processi democratici.
Per questi sistemi di IA ad alto rischio, sono previsti diversi obblighi:
- Valutare e ridurre i rischi
- Mantenere registri d’uso
- Essere trasparenti e accurati
- Garantire la sorveglianza umana
Inoltre, i cittadini avranno il diritto di presentare reclami sui sistemi di IA e ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti
I sistemi di intelligenza artificiale per finalità generali (tipo ChatGPT, Gemini e CoPilot) e i modelli su cui si basano dovranno essere trasparenti e conformi alle norme europee sul diritto d’autore. Questo significa che i cittadini avranno il diritto di sapere come funzionano questi sistemi e come sono stati sviluppati. Inoltre, i modelli più potenti, che potrebbero comportare rischi sistemici, dovranno essere sottoposti a ulteriori controlli.
Le aziende che sviluppano sistemi di IA dovranno effettuare valutazione dei rischi per identificare e mitigare eventuali rischi sistemici. Dovranno inoltre riferire alle autorità competenti in caso di incidenti. Infine, i contenuti artificiali o manipolati, come i “deepfake”, dovranno essere chiaramente etichettati come tali. Questo per evitare che le persone vengano ingannate da questi contenuti.
I paesi dell’UE dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), in modo che PMI e start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.
Il regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura (procedura di rettifica). Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.
Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo:
- i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore;
- i codici di buone pratiche (nove mesi dopo);
- le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi);
- gli obblighi per i sistemi ad alto rischio (36 mesi).