La proposta di Bruxelles pone le basi per armonizzare le norme sull'IA e garantire la sicurezza e i diritti fondamentali di persone e imprese, nonché controlli sui dispositivi immessi sul mercato

Intelligenza artificiale: il piano dell'Europa

[Torna su]

Lo scorso 21 aprile la Commissione Europea ha presentato una proposta di Regolamento ("Regulation on a european approach for artificial intelligence") per armonizzare le norme sull'intelligenza artificiale (IA) in Europa. Si tratta del primo quadro giuridico sull'IA che ne affronta i rischi e punta a trasformare l'Europa nel polo mondiale per un'intelligenza artificiale affidabile e che si pone in qualche modo sulla scia del GDPR.


Nel dettaglio, la bozza (qui sotto allegata) del nuovo piano coordinato con gli Stati membri mira a garantire la sicurezza e i diritti fondamentali di persone e imprese, rafforzando nel contempo l'adozione dell'IA e gli investimenti e l'innovazione nel settore in tutta l'UE. Le nuove regole sulle macchine integreranno questo approccio adattando le regole di sicurezza per far crescere la fiducia degli utenti in una nuova e versatile generazione di prodotti.


La Commissione prende atto dei potenziali e molteplici benefici dell'intelligenza artificiale che può contribuire a trovare soluzioni a molti dei problemi della società (da un'assistenza medica più efficace a una migliore istruzione), ma ciò solo nei casi in cui la tecnologia sia di alta qualità e venga sviluppata e usata in modo da guadagnare la fiducia dei cittadini.

La strategia europea sull'IA

Per questo l'esecutivo guidato da Ursula von der Leyen propone nuove norme per garantire che i sistemi di IA utilizzati nell'UE siano sicuri, trasparenti, etici, imparziali e sotto il controllo umano.


Per rispondere a queste sfide si è resa necessaria un'azione legislativa volta a garantire il buon funzionamento del mercato interno per i sistemi di IA, che tenga adeguatamente conto sia dei benefici sia dei rischi, in particolare per applicazioni quali i sistemi di identificazione biometrica o le decisioni basate sull'IA relative a importanti interessi personali, ad esempio nei settori della selezione del personale, dell'istruzione, dell'assistenza sanitaria o delle attività di contrasto.


Prima di entrare in vigore, il nuovo regolamento dovrà passare al vaglio del Parlamento Europeo e degli stati membri, iter che sarà completato nel giro di alcuni anni. In realtà, in anticipo sulla proposta della Commissione sull'intelligenza artificiale, a Strasburgo hanno già iniziato a lavorare sul tema, con la costituzione

di una commissione speciale sull'intelligenza artificiale in un'era digitale (AIDA) e adottando diverse proposte volte a precisare come l'UE possa regolamentare l'IA più efficacemente per dare una spinta positiva all'innovazione, agli standard etici e alla fiducia nella tecnologia.

I livelli di rischio

[Torna su]

La Commissione propone un approccio basato sul rischio, che si articola in quattro livelli. Viene valutato "inaccettabile" il rischio legato ad alcuni usi dell'IA particolarmente dannosi, che rappresentano una chiara minaccia per i cittadini UE, in quanto violano i diritti fondamentali.

Per questo tali sistemi saranno vietati tout court: si tratta, ad esempio, di quelli che prevedono da parte dei Governi l'attribuzione di un punteggio sociale ("social scoring"), di quelli che sfruttano le vulnerabilità dei minori (es. giocattoli con assistenza vocale che incoraggiano comportamenti pericolosi dei bambini), di quelli che utilizzano tecniche subliminali.

"Rischio alto" si avrà in caso di sistemi di IA che hanno ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali (tutelati dalla Carta dei diritti fondamentali dell'UE): l'elenco dei sistemi IA ad alto rischio è allegato alla proposta e potrà essere riveduto nel tempo per allinearsi all'evoluzione dei casi d'uso dell'IA e alle esigenze future.

Il loro utilizzo non è totalmente vietato, poiché sarà possibile per i fornitori immetterli sul mercato in casi particolari e solo a seguito di una rigorosa valutazione di conformità e al rispetto di stringenti requisiti obbligatori, necessari per garantire tutela ai cittadini.

Nella fascia di rischio "limitato" rientrano quei sistemi a cui sono imposti specifici obblighi minimi di trasparenza, come nel caso in cui esista un evidente rischio di manipolazione: vi rientrano, ad esempio, i chatbot e gli assistenti vocali. Gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no, anche in vista del possibile utilizzo di dati personali.

Nel rischio "minimo", infine, rientrano tutti gli altri sistemi di IA che dovranno essere sviluppati e utilizzati nel rispetto della legislazione vigente senza ulteriori obblighi giuridici. La grande maggioranza dei sistemi di IA attualmente utilizzati nell'UE rientra in questa categoria, come i filtri anti-spam e contro le telefonate indesiderate, oppure i videogiochi sviluppati sfruttando sistemi di IA. Il progetto di regolamento non interviene in questo caso, trattandosi di sistemi che presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.

Identificazione biometrica

Le nuove regole considerano "ad alto rischio" tutti i sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota delle persone, che dunque saranno soggetti a valutazione della conformità ex ante da parte di terzi, che comprenderanno requisiti di documentazione e sorveglianza umana fin dalla progettazione.

Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato. Sono previste poche eccezioni rigorosamente definite e regolamentate (ad esempio, ove strettamente necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire autori o sospettati di un reato grave). Tale uso è soggetto all'autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti per quanto riguarda il tempo, la portata geografica e le banche dati ricercate.

Tutti i sistemi di riconoscimento delle emozioni e di categorizzazione biometrica saranno infine sempre soggetti a specifici requisiti di trasparenza. Saranno anch'essi considerati applicazioni ad alto rischio se rientrano nei casi d'uso che li identificano come tali, ad esempio nei settori dell'occupazione, dell'istruzione, delle attività di contrasto, della migrazione e del controllo delle frontiere.

Controlli e sanzioni

[Torna su]

Una volta che il sistema di IA è sul mercato, saranno responsabili le autorità nazionali della vigilanza del mercato, mentre gli utenti assicurano la sorveglianza e il monitoraggio umani e i fornitori dispongono di un sistema di monitoraggio successivo all'immissione sul mercato. I fornitori e gli utenti segnaleranno anche gli incidenti gravi e i malfunzionamenti.

Gli Stati membri, dunque, assumono un ruolo chiave nell'applicare il regolamento e nel garantirne il rispetto: ciascuno di essi dovrebbe designare una o più autorità nazionali competenti incaricate di supervisionarne l'applicazione e l'attuazione, nonché di svolgere attività di vigilanza del mercato.

Inoltre, per aumentare l'efficienza e istituire un punto di contatto ufficiale con il pubblico e le altre controparti, ciascuno Stato membro dovrebbe designare un'autorità nazionale di controllo, che rappresenterà anche il paese nell'ambito del comitato europeo per l'intelligenza artificiale.

Sanzioni effettive

In caso di violazioni, ovvero sistemi IA immessi sul mercato o messi in servizio che non rispettano i requisiti del regolamento, viene stabilito che gli Stati membri debbano, inoltre, stabilire sanzioni effettive, proporzionate e dissuasive, comprese sanzioni amministrative pecuniarie, in relazione alle violazioni e comunicarle alla Commissione.

Il regolamento stabilisce le soglie da tenere in considerazione:

- fino a 30 milioni di euro o al 6% del fatturato mondiale totale annuo dell'esercizio precedente (se superiore) per violazioni relative a pratiche vietate o per l'inosservanza di requisiti in materia di dati;

- fino a 20 milioni di euro o al 4% del fatturato mondiale totale annuo dell'esercizio precedente per l'inosservanza di qualsiasi altro requisito o obbligo del regolamento;

- fino a 10 milioni di euro o al 2% del fatturato mondiale totale annuo dell'esercizio precedente per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta.

Scarica pdf Proposta Regolamento Intelligenza Artificiale UE

Foto: 123rf.com
Altri articoli che potrebbero interessarti:
In evidenza oggi: