di Roberto Staro* –
Premessa:
La dottrina già da diverso tempo si confronta sul tema dell’intelligenza artificiale e della sua interazione con il settore giuridico, in particolare ponendo attenzione sull’attuale primordiale gestazione di un panorama normativo di riferimento – sia a livello comunitario che nazionale – e sui risvolti già presenti nella pratica, anche in ambiente giurisprudenziale.
Invero, nonostante per alcuni sia considerato di improvvisa attualità a causa dell’ormai degenerante invasione nella realtà quotidiana di svariate forme di IA, la comunità dei giuristi e degli operatori del diritto sta ormai maturando la consapevolezza che, più di altri settori della vita e della quotidianità, la rivoluzione tecnologica dell’IA coinvolgerà, fino a stravolgere, non solo le dinamiche della vita privata ma, ancor più, la formazione del libero pensiero e finanche l’autonomia decisionale propria del ragionamento umano.
La tentazione di affidare ad una macchina – rectius, ad un algoritmo – la “fatica” di una decisione ovvero la sintesi tra molteplici fattori e soluzioni (scegliendo, come si vedrà infra, su un calcolo probabilistico ma vincolato alle informazioni di partenza) è sempre più evidente e, nel volgere di pochi anni, apparirà inevitabile laddove non si riuscirà a vincolarla a parametri rigidi nei quali l’esperienza umana e la maturità di ragionamento dovranno essere tutelati.
Orbene, il presente articolo si propone di seguire le linee direttrici già tracciate su questa Rivista[1] e, si spera, di offrire nuovi spunti di riflessione, ponendo tuttavia l’accento tra la velocità della dinamica evolutiva di questa nuova tecnologia, e della conseguente sempre maggiore interazione con ogni settore del diritto e della applicazione pratica dello stesso, ed il rispetto dei principi fondamentali del nostro ordinamento e della centralità del valore dell’uomo.
Non v’è dubbio, del resto, che l’accesso così facilitato ad una tecnologia di tipo predittivo (ossia capace di generare pensieri autonomi o di eseguire ragionamenti deduttivi e non soltanto algebrici) sia assai rischiosa ove posta a confronto con la necessaria evoluzione positiva del diritto, e cioè con la capacità di quest’ultimo di modificarsi secondo le diverse esperienze dell’uomo ma sul presupposto del rispetto dei diritti fondamentali.
Laddove poi questo tipo di ragionamento sia diretto a valutare i vantaggi ed i rischi, se così si può dire, dell’utilizzo dell’IA nel processo penale, si comprende con plastica evidenza quanto tale argomento sia delicato e non possa perciò cedersi ad una brusca abdicazione del ragionamento cognitivo e deduttivo ove vi sia pericolo per la salvaguardia del bene più prezioso: la libertà individuale.
L’IA come un oracolo?
La possibilità di predire il futuro è un desiderio con il quale l’uomo ha combattuto da sempre perché è intimamente connesso alla curiosità di conoscere ciò che l’aspetta ed il timore di non saperlo affrontare.
Nel passato, tale debolezza umana trovava il suo compimento nell’oracolo a cui chiunque, dal più forte al più debole, affidava le proprie scelte e sul quale misurava le proprie azioni. Nella mitologia, tuttavia, il vaticinio era per lo più connesso alla sventura e, lungi dal prevedere il futuro, condizionava esso stesso l’agire di chi vi si rivolgeva, con il paradosso di non predire ma di indirizzare. È di questo tipo, ad esempio, l’interpretazione proposta da Cassese delle tragedie di Edipo e Antigone[2]; è la conoscenza del futuro, prima che esso accada, ad innescare il corso di azioni che condurrà alla hybris tanto del padre quanto del figlio che, così facendo, per evitare il vaticinio metteranno in opera una serie di azioni che lo realizzeranno.
Il desiderio di conoscere il futuro, e per certi versi di governarlo, è un’angoscia che non ha abbandonato l’uomo il quale, seppur con formule di volta in volta più nuove, continua la ricerca di una soluzione a tale istinto primordiale.
A differenza dell’oracolo, la moderna IA contiene in sé il simulacro della razionalità e, quindi, potrebbe apparire più rispondente alle esigenze umane rispetto alla “magia” di un essere dotato di poteri di chiaroveggenza. Il dubbio amletico è se la logica quantistica ed il principio di autodeterminazione dell’IA possano sostituire l’uomo nelle sue scelte, tanto rispetto al proprio di futuro quanto a quello degli altri. Il comportamento umano, le sue scelte e decisioni, tuttavia, non sono determinabili con le stesse leggi con le quali si comprendono i fenomeni fisici o chimici o con cui rispondono le regole matematiche; alla possibilità di predire con esattezza il comportamento umano si è sempre opposta una caratteristica tipica dell’evoluzione dell’uomo: la libertà (intesa anche come imprevedibilità ed eccezione rispetto al binomio causa-effetto).
L’essere umano non è mai soltanto il prodotto deterministico delle sue stimolazioni biochimiche o neurofisiologiche, né tantomeno il risultato necessario delle condizioni socio-economiche o ambientali in cui vive.
Oggi non sarebbe possibile tollerale che una scelta venga affidata ad un oracolo il quale, per definizione della mitologia, ha sempre ragione pur non dando mai ragioni. Eppure, si è disposti con facilità a cedere all’agio di una decisione operata da un algoritmo predittivo al quale sono attribuiti (sbagliando, come si vedrà infra) i requisiti di terzietà, imparzialità e predeterminazione.
IA e Costituzione:
Proprio sulla scorta dei principi da ultimo richiamati, la necessaria premessa di ogni ragionamento circa l’applicabilità dell’IA alla sfera dell’esercizio della giustizia non può prescindere dalla corrispondenza di tale tecnologia con il rispetto dei diritti e delle libertà fondamentali riconosciuti nella Costituzione.
Non v’è dubbio che l’argomento sia così vasto da non poter essere sviluppato sufficientemente in questo breve articolo. Ci si limiterà pertanto a proporre le tre principali aree di rischio maggiormente di interesse nella connessione tra utilizzo dell’IA e amministrazione della giustizia:
- il principio della sovranità popolare (art. 1):
la matrice democratica su cui si base la nostra architettura costituzionale, come è noto, non si può ridurre semplicisticamente al concetto di moltitudine e di rispetto della volontà popolare (intesa alla stregua di maggioranza da contrapporsi al potere dispotico di uno soltanto o di pochi), bensì contiene in sé un significato più penetrante al quale appartiene, tra l’altro, il rispetto per le minoranze e la cultura delle diversità.
Al fine di comprendere la portata potenzialmente deflagrante dell’IA con questo principio appare opportuno partire da un dato scientifico: secondo alcuni recenti studi, il volume dei dati trattati a livello planetario nell’anno 2020 è stato pari a 44 zettabyte (unità di misura corrispondente a 1021 byte), ossia una quantità enorme la cui tendenza di crescita è costante[3].
Tale quantità di dati, evidentemente di difficile catalogazione perché proveniente dalle più disparate attività quotidiane di ciascuno di noi, è tuttavia una fonte di materia prima preziosissima perché capace di descrivere il perimetro delle nostre azioni e, quindi, di controllarle.
Al fine di stratificare i dati e di estrarne, quindi, un qualche significato compiuto (c.d. operazione di data mining) è necessario l’impiego di sofisticati sistemi di IA che consentano di compiere il passaggio dai dati all’informazione.
La dinamica dei fatti, tuttavia, ha generato un panorama in cui poche aziende in grado di svolgere questa elaborazione possono gestire una quantità smisurata di dati personali e, mediante essi, svolgere operazioni di profilazione (ad esempio, come accade per la pubblicità commerciale via internet) o, peggio, dirigere dopo averle manipolate quantità indefinite di informazioni al solo fine di influenzare le condotte e le scelte della popolazione (è di pochi anni fa, ad esempio, lo scandalo di Cambridge Analytica).
Si assiste pertanto al paradosso per cui una massa enorme di dati possa generare disinformazione in luogo di conoscenza.
All’interno di tale realtà si annidano alcuni rischi: in primo luogo, è del tutto verosimile che i destinatari delle informazioni non abbiano la consapevolezza del carattere circoscritto e parziale di quanto a loro somministrato e confidino, anzi, sulla loro oggettività, completezza e neutralità; in secondo luogo, si rende estremamente complicato il controllo sulla veridicità ed attendibilità delle informazioni fornite; in terzo luogo, il presupposto assetto plurale delle fonti di informazione è del tutto ipotetico giacché i dati (e le informazioni) potrebbero essere omologate e condensate sulla base di specifiche indicazioni.
Quale corollario, la sovranità popolare potrebbe essere fortemente condizionata nelle sue scelte e la molteplicità dei dati non costituirebbe un assioma di eguaglianza.
Le piattaforme tecnologiche, che appartengono a poche e consolidate società, sono tutt’altro che neutrali; in tale contesto, l’IA come interprete dei dati è mera utopia giacché unicamente governata dalla natura probabilistica del suo ragionamento.
Ma, come si è detto, la capacità della “macchina” dipende dal numero di dati di cui può disporre e, soprattutto, da chi li ha immessi, da quanti ne sono stati immessi e da quali fonti provengono; il rischio che ne derivino discriminazioni è fortissimo giacché nessun algoritmo, neanche il più evoluto, potrà considerare le “variabili imprevedibili” connesse alla mutazione del pensiero e dei costumi.
Con il rischio di muoversi verso una omologazione capace di anestetizzare la coscienza popolare e la trasformazione del singolo.
- il principio di eguaglianza (art. 3):
le tecniche di IA possono nascondere gravi forme di discriminazione, proprio in ragione del fatto che è imperfetto il dato che compone il loro background utile a sviluppare una soluzione in termini probabilistici.
La domanda alla quale l’IA è chiamata a dare una risposta dipende dalla sua capacità di raccogliere i dati, di selezionarli e, quindi, di valutarli secondo i parametri che gli sono stati assegnati; il meccanismo è noto come training dei dati. Ma è evidente che tanto più i dati saranno parziali o frutto di pregiudizi, tanto più il modello di soluzione ne rifletterà la parzialità agendo in modo discriminatorio secondo lo schema “garbage in, garbage out”.
Poiché i dati non sempre sono raccolti e selezionati in modo eguale, esistono delle zone grigie dove alcuni gruppi o comunità intere sono, alternativamente, eccessivamente rappresentati o sotto-rappresentati.
In gergo tecnico si definiscono “bias” (pregiudizi) quelle distorsioni sistematiche o distorsioni nelle decisioni prese da algoritmi o modelli di IA. Queste distorsioni possono derivare da molteplici fonti e possono influenzare vari aspetti delle applicazioni di IA. Uno dei tipi più comuni di bias riguarda i dati di addestramento; se i dati utilizzati per allenare un modello di IA sono incompleti o rappresentano in modo sbilanciato diverse categorie, il modello potrebbe produrre risultati distorti o discriminatori.
Il caso più eclatante – citato anche dal Prof. Luigi Viola – è sicuramente quello che coinvolse nel 2013 il cittadino americano Eric Loomis nei cui confronti è stato emesso un giudizio “anche” mediante l’ausilio del software COMPAS, ossia di un algoritmo (creato da una società privata) a cui veniva richiesto di valutare il rischio di recidiva e di pericolosità sociale di un individuo sulla base di vari dati statistici, precedenti giudiziari, di un questionario somministrato all’interessato ed altre variabili di proprietà intellettuale dell’azienda proprietaria del programma.
Ciò che è interessante sottolineare è che l’algoritmo in questione (basato su un campione di 10.000 imputati all’interno di una contea) ha fallito nella predizione del rischio di recidiva perché ha sovrastimato sistematicamente il rischio per gli imputati “neri” ed ha sottostimato sistematicamente il rischio per gli imputati “bianchi”.
Ciò, evidentemente, per la parzialità (ossia incompletezza) dei dati a disposizione, ovvero per l’essere essi stessi riferibili al passato e non proiettati verso la trasformazione della società.
Ne consegue che anche il sistema di IA più avanzato possa fornire alcuna garanzia di imparzialità ed eguaglianza nel suo percorso decisionale giacché quest’ultimo dipenderà sempre, alla base, dalla qualità e dalla quantità dei dati di cui si compone.
- il principio di giustizia (art. 111):
nell’ambito della giustizia si sono proposte, e talvolta impiegate, tecniche di decisione assistite o addirittura affidata all’IA. Ciò è avvenuto con una maggiore casistica nell’esperienza processuale statunitense[4] ma, come si è visto, anche in Italia[5].
Nell’elaborare le proprie decisioni, i sistemi informatici di IA soffrono di un difetto di trasparenza che rischia di pregiudicarne all’origine l’utilizzo. Tale fenomeno è noto come black box secondo cui, con l’impiego soprattutto del machine e deep lerning, non è dato comprendere, nemmeno ai programmatori, il percorso attraverso cui la macchina produce il risultato della propria attività.
Tale profilo è particolarmente grave in quanto non permette di cogliere, né quindi di controllare, i passaggi alla base dell’esito raggiunto dal sistema. In quest’ottica, qualsiasi decisione giudiziaria affidata all’IA sarebbe attaccabile in quanto non provvista della necessaria motivazione, così rendendo sostanzialmente incostituzionale ogni sistema di giustizia automatizzata.
In altri termini, una sentenza frutto di un algoritmo programmato ed applicato in maniera corretta, potrebbe incarnare i requisiti di terzietà, imparzialità e predeterminazione e, addirittura, assicurare la ragionevole durata del processo, così facendo assumere – paradossalmente – al giudice artificiale le vesti del perfetto giudice naturale ex art. 25 Cost.?
Per quanto affascinante, l’interrogativo si risolverebbe in un contrasto sulla natura stessa del “giudizio”, giacché quello delegato all’IA sarebbe determinato prevalentemente su criteri probabilistici. La cui conseguenza potrebbe essere quella, ulteriore, di revocare in dubbio l’utilità dell’appello o del ricorso in Cassazione (salvo volerlo affidare – e ciò sarebbe impossibile – ad una “macchina” o computer più potente).
Ed ecco allora che verrebbe in crisi il teorema, rivendicato fin dalla Magna Carta, per cui ciascuno sia giudicato dai suoi pari.
Ciò ha indotto, ad esempio, la legge di revisione francese[6] ad esprimere un fermo divieto, assistito da una pesante sanzione penale, di strumenti destinati alla giustizia predittiva.
Ma la criticità di una tale metodologia di esercizio della giustizia si manifesterebbe anche su un altro versante; laddove si affidasse la decisione ad un sistema di IA (che dovrà essere il più tecnologicamente avanzato) si dovrebbe allora postulare l’infallibilità dello stesso giacché, poste le medesime variabili, dovrebbe fornire le medesime risposte. Ciò che, invece, non avviene (e non deve avvenire) nell’attuale sistema giudiziario nel quale il sistema delle garanzie processuali si sviluppa su tre diversi gradi di giudizio (l’uno autonomo rispetto all’altro) e sulla possibilità di revisione di ciascun caso, proprio in ragione dell’opposto presupposto della fallibilità del sistema e della necessaria contestabilità di ciascuna decisione.
Cambio di paradigma:
Nell’ambito della giustizia penale la diffusione dell’IA pone problemi nuovi che imporrano un cambio di paradigma delle nozioni poste alla base dell’ordinamento.
Fino a qualche anno fa, ad esempio, nessuno avrebbe mai pensato di ritenere responsabile della morte di un uomo un “autoveicolo” perché, tecnicamente, è stato il “mezzo” che ha colpito la persona, causandone la morte. Oggi, tuttavia, i sistemi di guida automatizzata (o senza guidatore) rendono necessario rivedere il principio secondo il quale “la responsabilità penale è personale”.
La relazione tra persona e macchina diviene pertanto un tema innovativo, tanto dalla parte del “soggetto agente” quanto con riferimento alla sfera decisionale: una macchina che si vorrebbe restasse confinata alla categoria dei “mezzi”, ma che sembra invece sempre più tramutarsi in “soggetto agente”, rescindendo i legami tra la persona, la condotta ed i suoi effetti.
È un ormai un fatto che la tecnologia (rectius, il poter cibernetico) non è più soltanto un “mezzo” per realizzare un corso di azioni deciso da un soggetto agente umano, ma, sempre più spesso, è essa stessa a prendere decisioni rilevanti per la persona umana e per la sua libertà. Alla macchina non si chiede più di realizzare ciò che un soggetto ha già deciso, ma le si chiede di decidere, autonomamente.
Il rischio che sembra profilarsi è, insomma, l’abdicazione in favore della tecnologia, lasciando che quest’ultima invada prepotentemente ogni spazio della vita quotidiana, sia pubblica che privata, fino a crearne una forma di dipendenza che travolgerà la sfera dell’autodeterminazione.
I problemi che ne derivano si possono distinguere sul lato delle “condotte” e sul lato, opposto, della “responsabilità” (e quindi del giudizio).
In ordine al primo punto, la Carta della Robotica adottata nel febbraio 2017 dal Parlamento Europeo esprime in maniera efficace la questione ed evidenzia le lacune del sistema: “[…] l’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna; […] tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente; […] nell’ipotesi in cui un robot possa prendere decisioni autonome, le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati.”.[7]
Il secondo punto è, se possibile, ancora più complesso in quanto sono già diffusi strumenti di IA per coadiuvare il Giudice nella decisione ed appare forte la tentazione di cedere totalmente ad una giustizia svincolata dalla fallibilità umana.
Seguendo l’ottima definizione che si trova sul dizionario Treccani, in informatica «l’algoritmo viene definito come sequenza finita di operazioni elementari, eseguibili facilmente da un elaboratore che, a partire da un insieme di dati (input), produce un altro insieme di dati (output) che soddisfano un preassegnato insieme di requisiti.».
La definizione dei requisiti è dunque l’elemento essenziale in cui entra l’operatore umano che deve tradurre le specifiche di progetto in vincoli ovvero “requisiti che devono essere soddisfatti in ogni caso”, e in obiettivi, ossia “requisiti che devono essere soddisfatti il meglio possibile secondo un qualche criterio specificato”. Nel definire i vincoli e gli obiettivi si verificano i passi ingegneristici che traducono il contesto in cui l’algoritmo deve operare e le sue finalità in operazioni matematiche che realizzano la cornice in cui opera l’algoritmo. È chiaro che l’efficacia e l’attendibilità di un algoritmo dipendono dalla qualità con cui un operatore umano realizza questo trasferimento.
Per quanto sopra accennato, l’IA è però chiamata ad operare distinzioni (calcolo probabilistico) sulla base di una definita e chiusa selezione di dati. Se l’algoritmo ha alla base la funzione di distinguere, occorrerà interrogarsi non tanto sul se e cosa è in grado di selezionare la macchina, ma piuttosto sul come.
L’IA ha un carattere potenzialmente discriminatorio perché la sua conoscenza si fonda sulla quantità e qualità dei dati che in essa confluiscono e che è in grado di elaborare. Per definizione, quindi, l’IA non è neutrale.
Inoltre, verrebbero lesi i principi cardini dello Stato di diritto secondo i quali, chiunque sia sottoposto ad un giudizio, possa essere libero di esprimere la propria opinione, possa contestare la decisione, possa interfacciarsi in contraddittorio con il giudicante.
Ma, ancor di più, si tradirebbe l’idea stessa della giustizia la cui forza risiede proprio nella sua imperfezione, ossia nella capacità di rigenerarsi, evolvere e modificarsi secondo il mutare del contesto sociale ed antropologico, ma pur sempre nel cardine del rispetto dei diritti fondamentali.
Ciò non potrebbe affatto essere garantito da un’applicazione o da un algoritmo i cui criteri probabilistici imporrebbero decisioni vincolate e asettiche, nelle quali la particolarità del caso o le peculiarità del soggetto o la novità dell’accaduto potrebbero non rientrare tra i dati da selezionare.
Mutatis mutandis, il ragionamento è simile a quello proposto per smantellare di volta in volta il sistema delle “presunzioni” giuridiche; rispetto a tali predizioni, ad esempio in tema di recidiva o di misure di sicurezza personale, il giudice costituzionale aveva inizialmente ritenuto conformi ai principi costituzionali alcune presunzioni assolute di pericolosità sociale, salvo poi essere state eliminate dal legislatore mediante l’affermazione per cui è sempre necessario un accertamento che colui che ha commesso il fatto sia una persona socialmente pericolosa.
Nel nostro ordinamento è quindi maturato il convincimento che il Giudice non poteva, né doveva, essere vincolato da presunzioni assolute ovvero da automatismi decisionali[8].
È allora possibile allora sostenere che l’IA possa essere in grado di operare questo tipo di evoluzione nel ragionamento, che evidentemente necessita di una revisione del dato di partenza e degli iniziali postulati sui quali si fondava il concetto giuridico da rivedere?
E anche laddove ci riuscisse, quanto spazio sarebbe assegnato alla critica di una tale revisione ed alla possibilità di modificarla?
A ben vedere, il fattore che rimane determinante nell’IA è la natura servente, cioè non esclusiva, del supporto automatizzato alla decisione. Non si intende con ciò escludere del tutto l’IA dalla decisione, ma di ribadire la sua natura di supporto, la sua finalità servente e mai autonoma rispetto alla decisione umana.
Si ripropone, dunque, la grande intuizione distopica raccontata nel romanzo di Philip K. Dick, laddove le forme evolute di intelligenza artificiale (i c.d. replicanti) vengono utilizzati dagli umani come servi per coltivare le colonie nello spazio esterno.
Fino a quando non decidono di ribellarsi.
E, in questo panorama, quale sarebbe il ruolo degli avvocati e quale sarebbe lo spazio o con quali strumenti potrebbero confutare una decisione che, assunta in termini probabilistici a fronte dell’analisi e selezione di milioni di dati, parrebbe inespugnabile?
Si determinerebbe un impoverimento dell’intero sistema giudiziario e, conseguentemente, un abbassamento qualitativo della stessa IA di considerare ipotesi diverse da quelle predeterminate; con la conseguenza che il sistema si arroccherebbe sulle proprie (immutabili) convinzioni e perderebbe una delle più grandi doti della natura umana su cui, non poche volte, gli avvocati si affidano per ribaltare decisioni che appaiono chiuse: la fantasia.
L’approccio europeo ad una IA affidabile
È assai recente l’accordo politico raggiunto tra il Parlamento Europeo ed il Consiglio Europeo sulla legge sull’IA proposta dalla Commissione nell’aprile 2021 [9].
Ne era seguita, in data 25.11.2022, una “Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione” la cui discussione si è completata pochi mesi orsono mediante l’adozione di un “Regolamento sull’intelligenza artificiale” che costituisce il primo impianto normativo al mondo su tale materia[10].
Al riguardo il 09.12.2023 il Presidente della Commissione Europea, Ursula von der Leyen ha dichiarato: “L’intelligenza artificiale sta già cambiando la nostra vita quotidiana. E questo è solo l’inizio. Utilizzata in modo oculato e diffuso, l’IA promette enormi benefici per la nostra economia e la nostra società. Pertanto, accolgo con grande favore l’accordo politico raggiunto oggi dal Parlamento europeo e dal Consiglio sulla legge sull’intelligenza artificiale. La legge dell’UE sull’IA è il primo quadro giuridico globale in assoluto in materia di intelligenza artificiale a livello mondiale. Si tratta quindi di un momento storico. La legge sull’IA recepisce i valori europei in una nuova era. Concentrando la regolamentazione sui rischi identificabili, l’accordo odierno promuoverà l’innovazione responsabile in Europa. Garantendo la sicurezza e i diritti fondamentali dei cittadini e delle imprese, sosterrà lo sviluppo, la diffusione e l’adozione di un’IA affidabile nell’UE. La nostra legge sull’IA darà un contributo sostanziale allo sviluppo di norme e principi globali per un’IA antropocentrica.”[11].
Il Regolamento adottato dal Parlamento Europeo e dalla Commissione appare molto completo ed innovativo e propone una serie di nuove regole che saranno applicate nello stesso modo in tutti gli Stati membri, sulla base di una definizione dell’IA adeguata alle esigenze future, seguendo un approccio basato sul rischio.
In particolare, e questo è il punto centrale della nuova normativa, ne vengono enunciati quattro:
Rischio minimo: la grande maggioranza dei sistemi di IA rientra nella categoria di rischio minimo. Le applicazioni a rischio minimo, come i sistemi di raccomandazione o i filtri spam basati sull’IA, godranno di un “lasciapassare” e dunque saranno esenti da obblighi, in quanto presentano rischi minimi o nulli per i diritti o la sicurezza dei cittadini. Ma le imprese possono comunque impegnarsi, a titolo volontario, ad adottare codici di condotta aggiuntivi per tali sistemi di IA.
Rischio alto: i sistemi di IA identificati come ad alto rischio dovranno rispettare requisiti rigorosi e prevedere tra l’altro sistemi di attenuazione dei rischi, set di dati di elevata qualità, la registrazione delle attività, una documentazione dettagliata, informazioni chiare per gli utenti, sorveglianza umana e un elevato livello di robustezza, accuratezza e cybersicurezza. Gli spazi di sperimentazione normativa faciliteranno l’innovazione responsabile e lo sviluppo di sistemi di IA conformi.
Tra gli esempi di sistemi di IA ad alto rischio figurano alcune infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità, dispositivi medici, sistemi utilizzati per determinare l’accesso agli istituti di istruzione o per le assunzioni o alcuni sistemi utilizzati nell’ambito delle attività di contrasto, del controllo delle frontiere, dell’amministrazione della giustizia e dei processi democratici. Anche i sistemi di identificazione biometrica, categorizzazione biometrica e riconoscimento delle emozioni sono considerati ad alto rischio.
Rischio inaccettabile: i sistemi di IA considerati una chiara minaccia per i diritti fondamentali delle persone saranno vietati. In questa categoria rientrano i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti, come i giocattoli che utilizzano l’assistenza vocale per incoraggiare comportamenti pericolosi dei minori o i sistemi che consentono ai governi o alle aziende di attribuire un “punteggio sociale”, oltre che determinate applicazioni di polizia predittiva. Saranno inoltre vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi di categorizzazione delle persone o di identificazione biometrica in tempo reale a fini di attività di contrasto in spazi accessibili al pubblico (con limitate eccezioni).
Rischio specifico per la trasparenza: quando utilizzano sistemi di IA come i chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina. I deep fake e altri contenuti generati dall’IA dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. I fornitori dovranno inoltre configurare i sistemi in modo che i contenuti sintetici di audio, video, testo e immagini siano contrassegnati in un formato leggibile mediante dispositivi automatici e siano riconoscibili come generati o manipolati artificialmente.
Il testo è stato approvato dal Parlamento Europeo il 13.03.2024 e tale data ha sancito l’adozione della prima legge sull’IA a livello internazionale. I deputati hanno approvato il regolamento, frutto dell’accordo raggiunto con gli Stati membri nel dicembre 2023, con 523 voti favorevoli, 46 contrari e 49 astensioni.
L’obiettivo della legge è di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi per l’IA sulla base dei possibili rischi e del livello d’impatto.
Le nuove norme mettono fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.
Si può pertanto notare come alcune delle obiezioni e dei possibili rischi di cui si è detto nei paragrafi precedenti abbiano pervaso anche il legislatore europeo che, in questo modo, ha inteso dare una prima risposta su tematiche che, necessariamente, offriranno continui spunti di riflessione ed occasioni di intervento.
In linea di principio, ad esempio, le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato.
Sono previsti obblighi chiari anche per altri sistemi di IA ad alto rischio (che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto). Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Per questi sistemi vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.
I sistemi di IA per finalità generali e i modelli su cui si basano dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d’autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti. Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali.
Il regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura (procedura di rettifica). Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio e ciò è previsto per la metà del mese di aprile p.v.
La nuova normativa entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).
La normativa italiana
Con insolito tempismo, e quindi immediatamente dopo l’approvazione dell’IA Act in ambito europeo, il Parlamento italiano ha avviato la discussione per l’adozione di una normativa specifica in tema di intelligenza artificiale anche nell’ambito del nostro ordinamento.
Il Consiglio dei Ministri ha approvato in data martedì 23 aprile 2024 “un disegno di legge per l’introduzione di disposizioni e la delega al Governo in materia di intelligenza artificiale”. Con tale provvedimento, il governo italiano si propone di armonizzare la legislazione nazionale europea entro dodici mesi dall’approvazione dell’IA Act.
Nella relazione introduttiva del DDL n. 1066, presentato in data 12.03.2024 al Senato della Repubblica ed attualmente in corso di esame in all’8^ commissione permanente, accanto all’importanza strategica e per certi versi inevitabile dell’IA sul tessuto economico e produttivo, quasi a riassumere quanto già detto ut supra, si rimarcano i rischi e le esigenze non derogabili necessarie al fine di poter ottenere, e sostenere, una innovazione tecnologica che non tradisca i diritti fondamentali dell’uomo ed i valori fondanti della nostra costituzione: “[…] L’intelligenza artificiale inaugura nuove prospettive ma presenta anche rischi etico-sociali. Perché l’innovazione diventi un motore di avanzamento, è fondamentale perseguire uno sviluppo responsabile. La trasparenza nella gestione dei dati, l’affidabilità delle tecnologie adottate, la protezione e la privacy dei sistemi, l’imparzialità degli output e l’accessibilità a questi nuovi servizi sono elementi fondamentali per l’attuazione di una intelligenza artificiale etica. In questo ambito si promuovono sistemi che non escludono l’intervento umano nelle decisioni e nella creazione di contenuti derivanti dall’uso di tali strumenti (il concetto di <human in the loop> o <human on the loop>). Un equilibrio tra innovazione e protezione dei diritti individuali e collettivi richiede un dialogo aperto tra governi, imprese e società civile, permettendo così all’IA di fiorire in un ambiente che valorizzi il benessere e il progresso senza intaccare valori imprescindibili”[12].
Ed ancora, tra gli obiettivi che si propone di raggiungere il nuovo testo normativo vi è proprio quello di “[…] f) gestire il tema dell’accesso e dell’uso degli strumenti di intelligenza artificiale, che deve basarsi sul rispetto dei diritti fondamentali della persona, secondo l’evoluzione normativa europea”.
Se le linee direttrici del disegno di legge si muovono nell’ambito dell’accesso e della valorizzazione dell’IA all’interno dei vari ambiti produttivi ed economici, è l’articolo 5 che “…prevede misure finalizzate a garantire la trasparenza dei contenuti digitali generati dall’intelligenza artificiale, stabilendo che tutti i contenuti generati dall’intelligenza artificiale devono essere chiaramente identificati come tali e resi riconoscibili agli utenti attraverso sistemi di etichettatura (label) e filigrana (water-mark)”.
Conclusioni
Questo lavoro, con le sue imperfezioni e lacune, è stato sviluppato secondo il “vecchio” metodo della ricerca delle fonti e della elaborazione delle tante nozioni apprese. Tante cose sono state solo accennate e tante altre se ne sarebbero potute aggiungere. L’IA è del resto una nuova frontiera, altrimenti definita la “quarta rivoluzione industriale”; ma a differenza delle prime, per la prima volta sovvertirà il rapporto tra “padrone” e “macchina”, tra “pensiero” e “azione”, tra “servizio” e “libertà”.
L’interrogativo pressante è riguardo a quanto tempo occorrerà prima che la “comodità” di cedere ad una “macchina” il compito di scegliere per noi, si trasformerà in una regressione delle nostre capacità intellettuali e della necessaria resistenza alla frustrazione sulla quale si è fondata l’evoluzione umana.
Chi scrive, sebbene ne sia stato tentato, non ha quindi ceduto nell’affidarsi a forme di IA utili a preconfezionare un contenuto e tale scelta, ne sono lieto, non mi ha privato di una emozione basilare e bellissima che andrebbe altrimenti dispersa: il fascino della scoperta.
*Presidente ANAI Sezione di Roma
[1] Luigi Viola, “Intelligenza artificiale e diritto”, Nova Itinera, n. 1/23
[2] S. Cassese, Il diritto nello specchio di Sofocle, in Il Corriere della Sera, 18 maggio 2018
[3] Si veda, l’executive summary Data Growth, Business Opportunities and the IT imperatives, de The Digital Universe of opportunities: Rich Data and the increasing Value of the IoT (http://www.emc.com/leadership/digital-universe/2014iview/executive -summary.htm)
[4] A titolo di esempio, uno studio statunitense retrospettivo ha permesso di dimostrare come, con l’impiego dell’IA, si sarebbero potute adottare decisioni di rilascio su cauzione più mirate. In particolare, si sarebbero potuti scarcerare molti più indagati (25%) senza per questo far crescere i livelli di criminalità. E l’algoritmo avrebbe anche ridotto le disparità di trattamento legate all’origine razziale delle persone coinvolte. (cfr. J. Kleinberg ET AL., Human Decisions and Machine Predictions, in The Quarterly Journal of Economics, 01.02.2018)
[5] L’applicazione della legge n. 107/2015 sulla riforma della scuola è stata oggetto di numerosi giudizi dinanzi al TAR Lazio (ex multis: Sez. III bis n. 3769 del 2017; Sez. III bis n. 9224-9230 del 2018) nei quali l’applicazione dell’algoritmo di assegnazione degli incarichi è stato ritenuto ammissibile solo in quanto, nei citati casi, era coinvolto un potere amministrativo vincolato e giammai discrezionale.
[6] art. 33 della LOI n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de reforme pour la justice.
[7] P8TA (2017)0051 Norme di diritto civile sulla robotica, Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL).
[8] Corte Cost. n.1/1971; Corte Cost. n.139/1982; Corte Cost. n.367/2004
[9] EUR-Lex – 52021PC0206 – EN – EUR-Lex (europa.eu)
[10] https://www.europarl.europa.eu/doceo/document/A-9-2023-0188_IT.html
[11] https://ec.europa.eu/commission/presscorner/detail/it/ip_23_6473
[12] Relazione introduttiva DDL n. 1066
Note bibliografiche:
- Andrea Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, BioLaw Journal n. 1/2019 Costanza Nardocci, Intelligenza artificiale e discriminazioni, La Rivista “Gruppo di Pisa” n. 3/2021
- Carlo Casonato, Costituzione e intelligenza artificiale: un’agenda per il prossimo futuro, BioLaw Journal n. 2/2019
- Paolo Zuddas, Intelligenza artificiale e discriminazioni, Liber amicorum 16.03.2020
- Maria Chiara Carrozza – Calogero Oddo – Simona Orvieto – Alberto di Minin – Gherardo Montemagni, AI: profili tecnologici Automazione e Autonomia: dalla definizione alle possibili applicazioni dell’Intelligenza Artificiale, BioLaw Journal n.3/2019
- Alessandro Pajno – Marco Bassini – Giovanni De Gregorio – Marco Macchia – Francesco Paolo Patti – Oreste Pollicino – Serena Quattrocolo – Dario Simeoli – Pietro Sirena, AI: profili giuridici – Intelligenza artificiale: criticità emergenti e sfide per il giurista, BioLaw Journal n.3/2019
- Francesco Laviola, Algoritmico, troppo algoritmico: decisioni amministrative automatizzate, protezione dei dati personali e tutela delle libertà dei cittadini alla luce della più recente giurisprudenza amministrativa, BioLaw Journal n. 3/2020
- Tommaso Edoardo Frosini, L’orizzonte giuridico dell’Intelligenza Artificiale, BioLaw Journal n.1/2022