Intelligenza artificiale: arriva il Regolamento UE per tutelare i diritti senza rinunciare alla tecnologia

Il 21 aprile la Commissione europea ha presentato un pacchetto di misure che delinea la strategia europea volta a trasformare l’Europa nel polo mondiale per un’intelligenza artificiale (di seguito IA) affidabile. Il pacchetto prevede: un quadro giuridico sull’IA (proposta di regolamento), un nuovo piano coordinato con gli Stati membri per garantire la sicurezza e i diritti fondamentali di persone e imprese, un regolamento sulla sicurezza delle macchine.

Questa immagine ha l'attributo alt vuoto; il nome del file è tecnofobia-780x450.jpg

Si tratta di un sostanziale passo avanti nella gestione dei sistemi di intelligenza artificiale e riconoscimento facciale. Il programma si pone l’obiettivo di tracciare un punto di equilibrio tra l’esigenza di contrastare gli utilizzi della tecnologia che possano risultare lesivi per «i diritti fondamentali e la sicurezza» dei cittadini europei e quella di non scoraggiare e deprimere l’innovazione e lo sviluppo tecnologico (che, di fatto, apportano numerosi benefici sia economici che sociali sia nel panorama industriale che nelle attività sociali).

Si è reso quindi necessario, in questo preciso momento storico, sviluppare “un quadro giuridico che istituisce un approccio europeo in materia di intelligenza artificiale per promuovere lo sviluppo e l’adozione di sistemi di intelligenza artificiale che soddisfino un elevato livello di protezione degli interessi pubblici”.

Il Regolamento sull’approccio europeo per l’intelligenza artificiale sembra porsi come evoluzione del GDPR, prendendo atto della grande accelerazione che questa tecnologia ha avuto negli ultimi anni.

Le nuove norme, che saranno uniformi su tutto il territorio europeo, prevedono misure di tutela da adottare per lo sviluppo, l’immissione sul mercato e l’utilizzo di sistemi di intelligenza artificiale, proporzionalmente e progressivamente collegate ai rispettivi livelli di rischio.

I sistemi di IA con rischio inaccettabile saranno vietati: parliamo di quelle tecnologie che possono costituire una minaccia evidente alla sicurezza o ai diritti delle persone, come nei casi di strumenti di manipolazione (ad esempio, giocattoli con assistenti vocali che incitano o possono incitare i minori a comportamenti pericolosi) o di “punteggio” ai cittadini (sistemi sviluppati con IA che consentono ai governi di identificare e classificare i cittadini in base a determinate caratteristiche).

Le tecnologie ad «alto rischio» vanno dai software per il reclutamento di lavoratori ai sistemi di valutazione del credito, ricomprendendo più in generale i sistemi che possono ledere un diritto individuale. Il loro utilizzo è possibile, dopo una rigorosa valutazione di conformità a priori seguita poi da successive verifiche periodiche in considerazione della rapidità dei mutamenti tecnologici, e purché garantiscano una serie di tutele a favore dei cittadini. In questa categoria rientrano anche i sistemi di riconoscimento facciale, vietati in “linea di principio” ma attivabili per una ristrettissima minoranza di emergenze e solo con il via libera di un organo giudiziario.

Obblighi di trasparenza sono inoltre applicabili a sistemi che presentano un rischio limitato, come i comuni chatbot (assistenti vocali).

I sistemi e le applicazioni di IA a rischio minimo (filtri anti-spam o i videogiochi sviluppati con sistemi di IA) saranno a libero utilizzo e pertanto non soggetti a regolazione.

In caso di non conformità con il Regolamento, i soggetti potrebbero essere soggetti ad una multa fino a 30 milioni di euro o fino al 6% del loro fatturato globale annuo, a seconda di quale sia il valore più alto; tali sanzioni sono ben più alte di quelle previste dal GDPR.

Il nuovo quadro giuridico, poi, prevede l’introduzione di un sistema di governance, a livello sia centrale che nazionale, e di misure a sostegno dell’innovazione nel settore dell’IA (come le cosiddette “regulatory sandboxes”).

La Commissione UE propone che le autorità nazionali di vigilanza del mercato competenti supervisionino le nuove regole, mentre l’istituzione di un comitato europeo per l’intelligenza artificiale ne faciliterà l’attuazione e stimolerà lo sviluppo di norme per l’IA. Questo provvedimento traccia una linea di demarcazione indubbia tra il passato e il futuro, spingendo il presente verso una veloce transizione all’intelligenza artificiale. Pur se ciò è di indubbio valore sotto diversi profili, da giurista mantengo le dovute riserve di tutela dei diritti di privacy e delle libertà fondamentali di comunicazione che sono alla base del vivere civile.

Marcella Coccanari
Informazioni su Marcella Coccanari 43 Articoli
L’avv. Marcella Coccanari è la fondatrice e CEO dello Studio Legale e Tributario Coccanari & Partners. Lo Studio è specializzato nell'assistenza alle imprese ed è caratterizzato da una visione ed un’esperienza multidisciplinare ed internazionale. Nasce con il sogno e la mission di assistere aziende di eccellenza, italiane ed estere, a raggiungere i loro obiettivi di espansione, sicurezza e prosperità nei vari mercati internazionali. Questo viene costantemente realizzato con servizi di alta qualità e personalizzati per ogni cliente. Lo Studio ha sede a Roma e Milano, con desk geografici a Londra, Miami e Shanghai e si avvale di un network di corrispondenti locali nei principali mercati del mondo.