L’approccio europeo all’Intelligenza Artificiale del futuro

Il cammino verso la creazione di un ambiente di sviluppo idoneo per i sistemi di Intelligenza Artificiale (IA) nell’Unione Europea sta prendendo forma con l’accordo provvisorio raggiunto dai Membri del Parlamento Europeo e del Consiglio Europeo sull’Atto sull’Intelligenza Artificiale. L’ Atto sull’Intelligenza Artificiale cerca di trovare un equilibrio tra l’innovazione e la salvaguardia dei diritti fondamentali. La regolamentazione completa stabilisce linee guida chiare e i divieti sull’uso dell’intelligenza artificiale (IA) in vari settori, garantendo che la tecnologia si allinei ai principi democratici e al rispetto dei diritti individuali.

Rispetto alla proposta iniziale della Commissione, i principali nuovi elementi dell’accordo provvisorio possono essere riassunti come segue:

  • norme sui modelli di intelligenza artificiale (IA) ad uso generale ad alto impatto che possono causare rischi sistemici in futuro, così come su sistemi di IA ad alto rischio
  • un sistema di governance rivisto con alcuni poteri di applicazione a livello dell’Unione Europea
  • estensione dell’elenco delle prohibizioni ma con la possibilità di utilizzare l’identificazione biometrica a distanza da parte delle autorità di applicazione della legge in luoghi pubblici, soggetta a garanzie
  • una migliore protezione dei diritti attraverso l’obbligo per i responsabili dei sistemi di IA ad alto rischio di condurre una valutazione dell’impatto sui diritti fondamentali prima di mettere in uso un sistema di IA.

Riconoscendo i potenziali rischi associati a determinate applicazioni dell’IA, la legislazione vieta esplicitamente diverse pratiche.

  • Sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);
  • Estrazione non mirata di immagini facciali da internet o da registrazioni di CCTV per creare basi dati di riconoscimento facciale;
  • Riconoscimento delle emozioni nell’ambiente lavorativo e nelle istituzioni educative;
  • Valutazioni basate sul comportamento sociale o sulle caratteristiche personali;
  • Sistemi di intelligenza artificiale che manipolano il comportamento umano per condizionare il libero arbitrio;
  • Utilizzo di intelligenza artificiale per sfruttare le vulnerabilità delle persone (a causa dell’età, disabilità, situazione sociale o economica).

L’accordo delinea salvaguardie e eccezioni limitate per l’uso di sistemi di identificazione biometrica (RBI) da parte delle forze dell’ordine in spazi pubblicamente accessibili. Tale utilizzo è soggetto a preventiva autorizzazione giudiziaria e è limitato a liste strettamente definite di reati. La legislazione distingue tra RBI “post-remoto”, utilizzati in ricerche mirate di individui condannati o sospettati di crimini gravi, e RBI “in tempo reale”, impiegati in condizioni specifiche per scopi come la ricerca di vittime, la prevenzione di minacce terroristiche o l’identificazione di individui sospettati di crimini specifici.

Per i sistemi di IA classificati ad alto rischio a causa del potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo stato di diritto, la legislazione impone valutazioni obbligatorie dell’impatto sui diritti fondamentali. Queste valutazioni si applicano a vari settori, tra cui assicurazioni e banche. Inoltre, i sistemi di IA che influenzano le elezioni e il comportamento degli elettori sono classificati ad alto rischio, garantendo ai cittadini il diritto di presentare reclami e ricevere spiegazioni sulle decisioni che influenzano i loro diritti.

Per affrontare le diverse capacità dei sistemi di intelligenza artificiale generali, la legislazione stabilisce requisiti di trasparenza. I sistemi devono conformarsi agli standard di documentazione tecnica, rispettare le leggi sul diritto d’autore dell’UE e fornire sommarie dettagliate dei contenuti utilizzati per l’addestramento. I modelli ad alto impatto con rischio sistemico affrontano obblighi ancora più rigorosi, tra cui valutazioni del modello, valutazioni del rischio, test avversari, segnalazione di incidenti, misure di sicurezza informatica e segnalazione dell’efficienza energetica.

Per incoraggiare l’innovazione, specialmente tra le piccole e medie imprese (PMI), l’accordo promuove sandbox regolamentari e test sul campo. Questi meccanismi, istituiti dalle autorità nazionali, consentono lo sviluppo e l’addestramento di soluzioni IA innovative prima che entrino sul mercato.

La mancata conformità alle normative può comportare sanzioni pecuniarie sostanziali, che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni di euro o l’1,5% del fatturato, a seconda dell’infrazione e delle dimensioni dell’azienda. Queste sanzioni sottolineano la serietà con cui l’UE considera l’aderenza alle pratiche responsabili dell’IA.

L’Atto sull’Intelligenza Artificiale segna una pietra miliare fondamentale negli sforzi globali per regolare responsabilmente l’IA. Affrontando i potenziali rischi e salvaguardando i diritti fondamentali, l’Europa prova ad assumere un ruolo di leadership nella definizione del futuro dell’IA. Mentre il testo concordato si avvicina all’adozione formale, rafforza l’impegno dell’UE nel bilanciare l’innovazione tecnologica con le considerazioni etiche, aprendo la strada a un approccio democratico e centrato sull’essere umano.

pg @neurobytes

fonti: Council of the EU Press release 9 December 2023