L’intelligenza artificiale alla conquista dell’Europa

Una descrizione esplicativa della proposta del Parlamento e della Commissione Europea che stabilisce regole armonizzate per l’intelligenza artificiale.

Il 21 aprile 2021 la Commissione Europea ha pubblicato la Proposta di Regolamento che stabilisce regole armonizzate sul Sistema di Intelligenza Artificiale (d’ora in avanti, ‘Sistema di IA’). L’adozione di regole chiare relative all’immissione sul mercato, la messa in servizio e l’utilizzo di Sistemi di IA è divenuta un’esigenza fortemente sentita soprattutto considerando la diffusione dell’IA nei settori ad alto impatto quali, tra gli altri, quelli dei cambiamenti climatici, la sanità e il settore pubblico.

I destinatari della Proposta sono: i) i fornitori che immettono sul mercato/mettono in servizio il Sistema di IA nell’Unione, a prescindere dal fatto che siano stabiliti o meno nell’Unione; ii) gli utenti dei Sistemi di IA situati nell’Unione; e iii) i fornitori/utenti di Sistemi di IA situati in un Paese extra-UE, laddove l’output prodotto dal Sistema di IA sia utilizzato nell’Unione.

La Proposta definisce il Sistema di IA quale un software sviluppato con una o più delle tecniche e degli approcci di cui all’Allegato I della Proposta, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono.

La necessità di elaborare un elenco di tecniche e di approcci specifici utilizzati per lo sviluppo del Sistema di IA deriva dal fatto che il suddetto Sistema può essere progettato per funzionare con variabili livelli di autonomia e può essere usato sia come elemento indipendente sia come componente (integrata o meno) di un prodotto.

Il suddetto Allegato I alla Proposta, nel dettaglio, fa riferimento ai seguenti approcci: i) di apprendimento automatico; ii) basati sulla logica e sulla conoscenza; iii) statistici, stima bayesiana, metodi di ricerca e ottimizzazione.

La Proposta differenzia i Sistemi di IA sulla base del rischio e più precisamente: a) un rischio inaccettabile; b) un rischio alto; c) un rischio basso o minimo.

Sistemi di IA Vietati e Sistemi di IA ad Alto Rischio

Marta Breschi, Associate dello Studio Legale Bird&Bird

La Proposta opera innanzitutto una distinzione tra Sistemi di IA ‘vietati’, cioè il cui utilizzo non è consentito tour court (d’ora in avanti ‘Sistemi di IA Vietati’) e Sistemi di IA ‘ad alto rischio’, cioè che possono essere realizzati, commercializzati e utilizzati nel rispetto di una serie di obblighi e adempimenti previsti dalla Proposta stessa (d’ora in avanti, “Sistemi di IA ad Alto Rischio”).

Con riferimento ai Sistemi di IA vietati, si tratta di Sistemi di IA che comportano un rischio inaccettabile, in quanto contrari ai valori dell’Unione Europea, per esempio, perché violano i diritti fondamentali.

A titolo esemplificativo, vi rientrano i Sistemi di IA che:

a) utilizzano tecniche subliminali;

b) sfruttano la vulnerabilità di uno specifico gruppo di persone;

c) attuano tecniche di credit scoring;

d) utilizzano i sistemi di identificazione biometrica remota ‘in tempo reale’ in spazi accessibili al pubblico ai fini di attività di contrasto (salvo eccezioni previste dalla Proposta).

Costituisce, invece, un c.d. Sistema di IA ad Alto Rischio:

a) il Sistema di IA destinato a essere utilizzato come componente di sicurezza di un prodotto o è esso stesso un prodotto, qualora lo stesso sia disciplinato da una ampia serie di provvedimenti normativi dell’Unione Europea (indicati all’interno dell’Allegato alla Proposta); o

b) il Sistema di IA che costituisce il prodotto, il cui componente di sicurezza è il Sistema di IA o il Sistema di IA stesso in quanto prodotto è soggetto a una valutazione della conformità da parte di terzi ai fini dell’immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa dell’Unione elencata nella Proposta; o

c) una serie di Sistemi di IA specificamente indicati nella Proposta e destinati a operare in alcune aree. Ossia: i) identificazione e categorizzazione biometrica delle persone fisiche; ii) gestione e funzionamento delle infrastrutture critiche; iii) istruzione e formazione professionale; iv) occupazione, gestione dei lavoratori e accesso al lavoro autonomo; v) accesso a prestazioni e servizi pubblici e a servizi privati essenziali e fruizione degli stessi; vi) attività di contrasto di cui all’Allegato III, punto 6, alla Proposta; vii) gestione della migrazione, dell’asilo e del controllo delle frontiere; viii) amministrazione della giustizia e processi democratici.

In generale, inoltre, tutti i Sistemi di IA devono garantire un adeguato livello di accuratezza (si indica, sul punto, che le relative metriche devono essere indicate nelle istruzioni per l’uso), di robustezza (mediante soluzioni tecniche di ridondanza, che possono includere piani di backup o fail-safe) e di cybersicurezza (mediante soluzioni tecniche per prevenire, tra gli altri, fenomeni di manipolazione del set di dati di addestramento, quale il fenomeno del data poisoning).

Requisiti e obblighi relativi ai Sistemi di IA ad Alto Rischio

Con specifico riferimento ai Sistemi di IA ad Alto Rischio vengono prescritti l’adozione e il mantenimento, con un aggiornamento costante e continuo, di un sistema di gestione dei rischi, dettagliatamente descritto nella Proposta. Inoltre, i Sistemi di IA ad Alto Rischio che usano dati per l’addestramento di modelli devono essere sviluppati sulla base di set di dati di addestramento, convalida e prova che sono soggetti ad adeguate pratiche di governance e gestione dei dati in linea con le modalità specificamente indicate nella Proposta.

In aggiunta a quanto sopra, per i Sistemi di IA ad Alto Rischio la Proposta stabilisce i requisiti relativi alla documentazione tecnica, alla trasparenza, alla fornitura di informazioni agli utenti e alla conservazione delle registrazioni (per i Sistemi di IA che consentono la registrazione automatica degli eventi ‘log’ durante il loro funzionamento).

I Sistemi di IA ad Alto Rischio devono essere progettati per poter essere supervisionati in modo efficace da persone fisiche durante il periodo in cui il Sistema di IA viene utilizzato. Per questo motivo devono essere adottati anche strumenti di interfaccia uomo-macchina adeguati.

La Proposta fornisce una serie di prescrizioni relative alla modalità con cui deve essere garantita la sorveglianza umana, con l’obiettivo di prevenire o ridurre i rischi per la salute, la sicurezza o i diritti fondamentali che potrebbero emergere dall’uso di un Sistema di IA ad Alto Rischio, anche laddove tale uso sia conforme alla finalità prevista.

Per maggiore chiarezza, la Proposta individua gli obblighi sia per i fornitori di sistemi di IA ad Alto Rischio sia per gli utenti e altri soggetti coinvolti, quali fabbricanti, importatori, distributori, rappresentanti autorizzati.

Tra gli obblighi per i fornitori vi è quello di istituire un sistema di Gestione della Qualità che garantisce la conformità alla Proposta, di redigere la documentazione tecnica, di valutare la conformità del Sistema di IA prima della sua immissione sul mercato/messa in servizio e di conservare i log generati automaticamente dal Sistema laddove tali log siano sotto il loro controllo ai sensi di un contratto con l’utente o in forza di legge.

Per quanto riguarda la registrazione del Sistema di IA ad Alto Rischio, tale procedura deve essere fatta dal fornitore o, ove applicabile, dal rappresentante autorizzato prima che il Sistema venga immesso sul mercato o messo in servizio. Il suddetto Sistema viene così registrato nella banca dati dell’UE dedicata ai Sistemi di IA ad Alto Rischio.

Le autorità di notifica e gli organismi notificati

Gian Marco Rinaldi, Counsel dello Studio Legale Bird&Bird

La Proposta dedica un intero capo al quadro normativo relativo alle c.d. Autorità di notifica e agli organismi notificati che saranno coinvolti come terze parti indipendenti nelle procedure di valutazione della conformità del Sistema di IA. A tal proposito, la Proposta differenzia le suddette procedure sulla base del tipo di Sistema di IA ad Alto Rischio.

In ogni caso, ogni volta che sia attuata una modifica sostanziale, i Sistemi di IA ad Alto Rischio devono essere sottoposti a una nuova procedura di valutazione della conformità. A questo proposito è bene specificare che, ai sensi della Proposta, non sono considerate modifiche sostanziali le modifiche apportate al Sistema di IA ad Alto Rischio che prosegue il suo apprendimento dopo essere stato immesso sul mercato/messo in servizio e che, da un lato, sono state predeterminate dal fornitore in occasione della valutazione iniziale della conformità e, dall’altro, rientrano nella documentazione tecnica.

Obblighi per Sistemi di IA che interagiscono con persone fisiche

Con riferimento a tutti i Sistemi di IA che interagiscono con le persone fisiche, i fornitori devono garantire che tali Sistemi siano progettati in modo tale che le persone fisiche siano informate del fatto che stanno interagendo con un Sistema di IA, a meno che ciò non sia evidente per le circostanze e il contesto di utilizzo. Un’eccezione è rappresentata ovviamente dai Sistemi di IA ad Alto Rischio usati per finalità legittime, quali le attività di contrasto di cui all’Allegato III, punto 6, alla Proposta.

Obblighi in caso di incidenti o malfunzionamenti dei Sistemi di IA

In caso di incidenti gravi o malfunzionamenti del Sistemi di IA che costituiscano una violazione degli obblighi previsti dal diritto dell’UE, il fornitore deve segnalarli: a) dopo che il fornitore stesso ha stabilito con certezza o con ragionevole probabilità un nesso causale tra il Sistema di IA e l’incidente/malfunzionamento; e b) in ogni caso non oltre 15 giorni dopo che è venuto a conoscenza dell’incidente grave o del malfunzionamento.

Anche successivamente all’immissione sul mercato del Sistema di IA ad Alto Rischio, il fornitore deve istituire un sistema di monitoraggio che sia proporzionato alla natura e alle tecnologie dei Sistemi di IA.

Banca dati UE e Comitato Europeo per l’Intelligenza Artificiale

Tra le novità della Proposta vi è l’istituzione di una banca dati dell’UE, accessibile al pubblico, con le informazioni sui Sistemi di IA ad Alto Rischio registrati. Viene altresì introdotto il c.d. comitato europeo per l’intelligenza artificiale, al quale è attribuita competenza per (i) facilitare la cooperazione tra autorità nazionali di controllo e Commissione UE in tema di intelligenza artificiale, (ii) supportare le autorità nazionali di controllo, la Commissione UE e altre autorità competenti sulle questioni emerse in tema di intelligenza artificiale, e (iii) assistere le autorità nazionali di controllo e la Commissione UE per l’applicazione del regolamento.

Sanzioni

Il mancato rispetto dei termini e delle condizioni del Regolamento può comportare l’applicazione di sanzioni amministrative pecuniarie. All’interno della Proposta, in particolare, sono individuate sanzioni pecuniarie che, nel massimo edittale, possono raggiungere l’importo 30 milioni di euro o il 6% del fatturato totale mondiale annuo dell’esercizio precedente, se superiore.

*Gian Marco Rinaldi e Marta Breschi sono rispettivamente Counsel e Associate dello Studio Legale Bird&Bird
(www.twobirds.com)

Office Automation è il periodico di comunicazione, edito da Soiel International in versione cartacea e on-line, dedicato ai temi dell’ICT e delle soluzioni per il digitale.


Soiel International, edita le riviste

Officelayout 196

Officelayout

Progettare arredare gestire lo spazio ufficio
Gennaio-Marzo
N. 196

Abbonati
Innovazione.PA n. 53

innovazione.PA

La Pubblica Amministrazione digitale
Gennaio-Febbraio
N. 53

Abbonati
Executive.IT n.1 2024

Executive.IT

Da Gartner strategie per il management d'impresa
Gennaio-Febbraio
N. 1

Abbonati