testo integrale con note e bibliografia

1. Excusatio: perché è urgente discutere di A.I.
Anni orsono Umberto Eco affermava che “Il computer non è una macchi-na intelligente che aiuta le persone stupide, anzi è una macchina stupida che funziona solo nelle mani delle persone intelligenti” Oggi è arrivato il momento di chie-dersi: è ancora così? Una pluralità di considerazioni chiamano il ceto dei giuristi a volgere l’attenzione alle questioni di principio e sistematiche che l’avvento dell’AI pone al diritto e alla giurisdizione. Primo fra tutti, il rilie-vo e l’impatto costituzionale che l’adozione di sistemi di intelligenza artifi-ciale determina sul sistema democratico, i diritti e le libertà della persona (e del suo precipitato costituzionale costituito dal sistema delle tutele giurisdi-zionali) .

2. Definizioni di A.I.
La definizione di AI più sintetica, ma icastica ci parla di macchine che «replicano il risultato del pensiero umano senza replicare il pensiero» ; so-stituzione ancor più significativa nei sistemi di machine learning – sottoin-sieme dell’AI – capace di operare tramite algoritmi in grado di migliorare autonomamente le proprie prestazioni sulla base di informazioni date: sia-mo in presenza di insieme di tecniche statistiche in grado di individuare modelli significativi (pattern) in significative masse di dati. Una paro-la\contenitore, un umbrella term che include una varietà di tecniche compu-tazionali di tipo algoritmico dedicate a migliorare l’abilità delle macchine nel fare cose che richiedono intelligenza: macchine che trascendono la di-mensione meramente esecutiva essendo in grado di apprendere attraverso l’esperienza e la comparazione di enormi masse di dati nonché, grazie all’interazione con l’essere umano, di adeguare il loro comportamento all’ambiente in cui operano e di reagire a situazioni prospettando anche so-luzioni ovvero prendendo anche decisioni. Il M.L. opera, poi, ance secon-do una logica combinatoria le tecniche di Natural Language Processing (NLP) finalizzate alla comprensione del linguaggio naturale, scritto o parla-to, emulando la capacità umana mediante l’utilizzo di algoritmi; emulazio-ne che consente alla macchina di appropriarsi di un linguaggio dal signifi-cato delle parole, alla appropriatezza d’uso rispetto ad un contesto, nonché regole di esposizione e struttura stilistica.
L’elemento più innovativo risiede, certamente, nel fatto che il funzio-namento dei sistemi algoritmici più avanzati di M.L. – organizzati sulla ba-se di reti neurali che replicano il funzionamento del cervello umano – si basa su un approccio statistico (e non già logico-deduttivo): l’algoritmo opera sulla base di mere correlazioni statistiche di confronto di dati (e non già sulla base di relazioni causali): proprio tale caratteristica determina l’estrema difficoltà, se non l’impossibilità di identificare il ragionamento sotteso ad una decisione automatizzata, ponendosi quindi la questione del-la cosiddetta trasparenza algoritmica. Come rilevato, in particolare nei si-stemi di ML (ma si pensi, soprattutto, al Deep Learning ad apprendimento automatico) , l’uso di algoritmi non deterministici comporta che non è possibile comprendere, recte, ricostruire ex post all’output algoritmico “l’iter logico” seguito dalla macchina per raggiungere l’obiettivo assegnato, ope-rando il sistema sulla base di un complesso data set navigato in modo au-tonomo dal software stesso sulla base di inferenze, induzioni e correlazio-ni/regolarità di natura statistica e non (cd. fenomeno della black box) .
L’approccio antroprocentrico europeo ha già offerto varie definizioni, via via sempre più centrate e analitiche: la definizione contenuta nella Comuni-cazione Artificial Intelligence for Europe del 25 aprile 2018 [COM (2018) 237 final] – «l’intelligenza artificiale (IA) indica sistemi che mostrano un com-portamento intelligente analizzando il proprio ambiente e compiendo azio-ni, con un certo grado di autonomia, per raggiungere specifici obiettivi. I sistemi basati sull’IA possono consistere solo in software che agiscono nel mondo virtuale (ad esempio, assistenti vocali, software per l’analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale), oppure incorporare l’IA in dispositivi hardware (ad esempio, in robot avanzati, auto a guida autonoma, droni o applicazioni dell’Internet delle Cose)» – e quella contenuta nella «Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari» adottata nel dicembre 2018 dal-la CEPEJ – insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre me-diante le macchine le capacità cognitive degli esseri umani – hanno tracciato la stra-da per la definizione offerta dalla recente Proposta di regolamento europeo : l’Explanatory Memorandum a corredo della Proposta all’art. 3 par. 1 affer-ma che, ai fini del Regolamento, per sistema di intelligenza artificiale (o si-stema IA) si intende «un software sviluppato con una tecnica o un approc-cio tra quelli elencati nell’Allegato I, a loro volta individuati in approcci di machine learning (o “ML”), tra cui il supervised, l’unsupervised e il reinforcement learning, che applicano vari metodi, e.g. il deep learning (o “DL”); approcci c.d. knowledge-based o logic-based, come le rappresentazioni, la programmazione induttiva e i sistemi esperti; nonché approcci statistici, valutazioni bayesia-ne e metodi di ricerca e ottimizzazione».
Da segnalare la non appropriatezza della terminologia prescelta con la locuzione “intelligenza artificiale”: si sarebbe dinanzi a un ossimoro, attri-buendosi all’artificiale qualcosa che essenzialmente naturale in quanto pre-rogativa più gelosa della natura umana: l’intelligenza ; non appropriatezza lessicale da vigilare, siccome potenzialmente produttiva di errori di pro-spettiva e di un approccio analitico non corretto alla natura e dimensioni delle questioni .

3. Al cospetto della tecnica tra necessità e apparente neutralità: ibridazione dei saperi e translinguismo in tempo di crisi.
La complessità dei problemi e la natura sistemica delle soluzioni ri-chiede, anzi impone, di non accontentarsi e omologarsi ad un grigio e ras-sicurante monolinguismo . Oggi più che mai si deve chiedere agli opera-tori di giustizia di essere poliglotti — ovvero, quanto meno, di sapere e vo-lere ascoltare e ordinare con mitezza la babele delle lingue che gravitano sulla giustizia italiana — di aprirsi così al dialogo con le altre discipline specialistiche e incamminarsi insieme con esse lungo un percorso che valo-rizzi tutte le conoscenze—economiche, giuridiche, organizzative e infor-matiche — rilevanti per garantire la funzionalità, la qualità e l’efficienza del servizio giudiziario e l’efficacia della giurisdizione .
La costruzione di un approccio sistemico moderno presuppone la con-sapevolezza che la tecnica, strumento di trasformazione della realtà finaliz-zato a determinati obiettivi, richiede consapevolezza dei fini che si inten-dono perseguire e vigilanza su come poi tecnicamente questi obiettivi ven-gono realizzati, ovvero che – di fronte al “fatto” della tecnica – non ci si arresti con una mera presa d’atto . La tecnica non è un mero elemento neutro e servente .

4. L’irresistibile ascesa dell’A.I.
Già negli anni Novanta, il match tra (l’allora imbattuto) Garry Kaspa-rov e il computer IBM Deep Blue disvelò al mondo l’arena della guerra a venire tra uomo e macchina: il confronto – dal vago, sinistro sapore dar-winiano – tra intelligenza artificiale e intelligenza umana. Nel 1996, a Phi-ladelphia, Kasparov perde sì il primo incontro, ma poi vince la partita al meglio dei sei giochi: la prima sconfitta di un campione del mondo contro un calcolatore può essere archiviata come incidente di percorso. Ma Ka-sparov offre a Deep Blue la rivincita e a New York, nel 1997, il più grande giocatore di sempre perde la sfida, grazie alla sua infinita, fredda e lucida potenza computazionale . Nel 2016 il programma di Google AlphaGo sconfigge Lee Sedol, pluricampione mondiale di Go: un gioco molto più complesso degli scacchi. AlphaGo non usa trucchi per destabilizzare psi-cologicamente l’avversario, ma un sistema di reti neurali e apprendimento automatico per rinforzo .
Oggi l’avvento dei big data, l’enorme potenza computazionale e l’affermarsi dei sistemi di ML immutano, ancora una volta, quello scenario non più fantascientifico. Il patrimonio informativo veicolato dalla rete ge-nera una mole crescente di dati che ha superato da tempo la soglia dello Zeta byte sia i 1000 miliardi di gigabyte. Si prevede che gli utenti attivi nel 2023 su Internet raggiungeranno i 2/3 della popolazione mondiale, mentre ogni minuto vengono inviati oltre 40 milioni di messaggi tramite Whatsapp o Messenger e 190 milioni di email. Questa enorme mole di dati, peraltro, è una minima parte dei dati che veicola l’infosfera , tant’è vero che le prospettive indicano che nell’arco del 2022 transiterà una quantità di dati corrispondente all’intero traffico registrato tra il 1984 e il 2016. Sotto il profilo sociologico, l’affermazione dell’AI segna il passaggio da una società digitale alla società algoritmica nella quale le informazioni estratte dai dati attraverso il filtro degli algoritmi si propongono di governare decisioni che coinvolgono la dimensione sociale, politica ed economica . Siamo, quin-di, in presenza di uno shock tecnologico ormai permanente, di fronte al quale, così come ci ricordava il compianto Stefano Rodotà, si impone ai giuristi la necessità di non distogliere lo sguardo dalla pecora Dolly , in uno al dovere di sfatare il mito – pretesamente salvifico – della delega alle macchine .
Le domande – quelle almeno individuate allo stato dalla riflessione scientifica (filosofica, sociologica, psicologica, informatica e, infine, giuridi-ca) – sono veramente tante e, di fronte all’incessante cavalcata tecnologica dell’AI, possiamo solo affermare di non sapere ovvero di non sapere a suf-ficienza; abbiamo ancora poche risposte, con il rischio immanente che sia-no risposte già obsolete , liquidificate dal continuum digitale. Un new bra-ve world è alle porte.
Secondo l’Ocse siamo in presenza della quarta rivoluzione industriale caratterizzata dalla invincibile sinergia tra dati e algoritmi e segnata da una vocazione all’onniscienza , resa possibile grazie all’enorme quantità dei dati disponibili e alle capacità performanti degli algoritmi . Dall’omniscienza all’onnipotenza il passo è breve . Se così è, in effetti, v’è l’esigenza di una immediata riflessione di sistema sull’impatto che i si-stemi di AI stanno già imponendo ai moderni sistemi democratici, se è ve-ro che autorevoli studiosi già parlano di algocrazia ovvero, forse più cor-rettamente, una oligo-algocrazia nelle mani del moloch planetario GAFAM , ovvero un mondo regolato, anzi, dominato dagli algoritmi investiti di funzioni, analiticamente cognitive, subdolamente induttive e spiccatamente decisionali .
Il diritto è, allora, chiamato alla sua funzione di governo della socialità e delle sue evoluzioni. La riflessione che si impone è, quanto meno, dupli-ce. In un primo senso l’AI rileva quale oggetto di necessaria normazione e di possibile giudizio e, in tal senso, come si dirà, le categorie giuridiche tradizionali mostrano tutta la loro finitezza e storicità dinanzi al nuovo lin-guaggio digitale e alla disruption antropologica che ne è sottesa. In altro senso, poi, le prospettive di sviluppo nel campo del legal tech già oggi deli-neano un rivoluzione già in corso con l’offerta di innovativi «metodi per automatizzare la ricerca in campo legale, per la redazione o il controllo di contratti o documenti, per valutazioni tecniche (ad esempio per il calcolo di indennità in caso di licenziamento, di assegni di mantenimento per il coniuge o i figli, per la quantificazione dei danni in caso di lesioni persona-li ecc.) ed anche determinare il possibile esito di una controversia, attuale o potenziale. Sistemi del genere, fino ad oggi prevalentemente utilizzati da studi legali o compagnie assicurative, potrebbero fornire nuovi strumenti di misura, di valutazione e di predizione dei comportamenti suscettibili di essere utilizzati anche nel campo giudiziario, ed in tal modo contribuire a rendere più efficiente, più equo e meno costoso il funzionamento del si-stema giustizia» .

5. Una “persona” in cerca di autore: l’A.I. tra sviste, omis-sioni e bias.
Il matematico statunitense Norbert Wiener, uno dei “padri” della ci-bernetica moderna, ammoniva «Quelli fra noi che hanno contribuito alla nuova scienza della cibernetica si trovano così in una posizione morale a dir poco scomoda. Abbiamo contribuito alla nascita di una nuova scienza che, come ho detto, comporta sviluppi tecnici con grandi possibilità per il bene e per il male. Non possiamo fare altro che consegnarla al mondo che ci circonda, e questo è il mondo di Belsen e di Hiroshima. Non abbiamo neanche la scelta di arrestare questi nuovi sviluppi tecnici. Essi appar-tengono alla nostra epoca, e il massimo che riusciremmo ad ottenere cercando di sop-primerli sarebbe di metterli nelle mani dei più irresponsabili e venali dei nostri ingegne-ri. Il meglio che possiamo fare è agire in modo che un vasto pubblico comprenda le ten-denze e gli aspetti di questo lavoro» .
Se la promozione delle libertà e dei diritti, oltre che del benessere eco-nomico è un connotato caratteristico dei sistemi di AI, devono essere, pe-rò, esaminati i profili critici che la caratterizzano.
Vi sono pericoli, per così dire, estrinseci ai sistemi, ovvero le ricadute negative o critiche che i sistemi possono determinare ai diritti e alle libertà costituzionali. Vi sono, invece e ancor prima, criticità che sono caratteristi-che strutturali intrinseche di questi sistemi e che vanno, da subito, focaliz-zati. All’inizio di ogni cosa e nuova intrapresa c’è sempre di mezzo l’essere umano. Con la sua vision, la sua cultura, i suoi limiti personali, sociali, comportamentali. L’essere umano carico dei suoi pregiudizi e delle sue si-curezze. E così accade che anche le macchine possono avere, recte, mutuare pregiudizi: i nostri. Si definisce Machine Bias l’errore sistematico per cui un algoritmo produce output iniqui. Volendo sintetizzare, i sistemi di AI, destinati a elaborare enormi masse di informazioni binarie, operano e sono esposti alla c.d. GIGO ovvero all’effetto del Garbage In, Garbage Out: se i dati in ingresso sono sporchi, lo saranno anche quelli in uscita .
L’esempio più famoso della pervasività e pericolosità dei bias in fase di programmazione di sistemi di AI è certamente e il caso COM-PAS/Loomis .
La riflessione scientifica sul tema dei bias è oggi ad una svolta, compli-ce l’enorme diffusione dei sistemi di AI e la conseguente necessità di un intervento, ancor prima che sulle modalità di lavoro dei programmatori, sulla loro stessa formazione professionale e etica.
Gli studi di psicologia cognitiva e del lavoro, ancora a titolo di esem-pio, hanno individuato il fenomeno della cd. pigrizia e\o avarizia cogniti-va, ovvero la tendenza umana a compiere il minor sforzo possibile per prendere una decisione, cercare scorciatoie e risparmiare energie. L’adozione di sistemi automatizzati può diventare, oltre che un incredibile facilitatore delle informazioni e anche della decisione, al contempo un ri-schioso complice cui ricorrere per evitare ovvero semplificare processi al-trimenti più faticosi di analisi e valutazione delle informazioni. A questo primo rischio cognitivo, vanno aggiunti ulteriori profili di criticità, destinati ad essere amplificate dal ricorso a sistemi di AI .
In conclusione sul punto, avuto riguardo all’impatto in atto e prospet-tico che i sistemi determineranno sui sistemi legali e, in particolar modo, sul sistema giudiziario, mette conto rilevare che gli studiosi sono sempre più consapevoli – per minimizzare il rischio di bias discriminatori e, quindi, incrementare la fiducia delle persone in questi sistemi – dell’esigenza di an-ticipare la soglia di individuazione e di neutralizzazione dei bias all’interno del sistema, intervenendo sul momento della programmazione e, ancor prima, sulla formazione dei programmatori . Come è stato rilevato, oc-corre stabilire processi e pratiche per poter testare e mitigare i pregiudizi nei sistemi di AI; esaminare accuratamente quali dati ne determinano l’influenza maggiore, capire dove persistono i pregiudizi umani; investire di più nella ricerca e analisi dei bias; promuovere una politica di integrazione di diversità all’interno dell’ambiente stesso che sviluppa sistemi di AI, fa-vorendo comunità di sviluppo di questi sistemi inclusive in termine di ge-nere, etnia, regione geografica, classe sociale e disabilità; soprattutto e infi-ne promuovere iniziative in cui macchine ed esseri umani lavorino insieme, valutando accuratamente i casi in cui l’AI possa prendere la maggior parte delle decisioni e quelli in cui, sia l’uomo a mantenere il controllo della macchina .

6. Alla ricerca di un’A.I. costituzionalmente orientata.
Il costituzionalismo – è stato saggiamente osservato – «deve “fare il suo lavoro”, in altre parole deve svolgere il compito che ne costituisce l’essenza, fin dal suo sorgere nella lotta contro il monarca assoluto: limitare il potere, pubblico o privato che sia, ovvero “regolare regolare regolare”».
Se sistemi automatizzati sono in grado di intervenire sulle competizioni elettorali e sul circuito della responsabilità politica, allora, la questione in-veste lo stesso concetto di sovranità e il cuore del funzionamento del si-stema democratico (caso Cambridge Analytica) . Ma non si tratta solo di stigmatizzare il pericolo estrinseco di questi sistemi, la sfida uomo-algoritmo è ancor più profonda: se l’algoritmo di nuova generazione opera (e opererà sempre di più) seguendo un percorso induttivo-statistico e il suo ragionare non è tracciabile, né ex post è comprensibile (la c.d. black box) si pone una questione ontologicamente democratica se è vero, com’è vero, che la democrazia è potere visibile ; se è vero che l’algoritmo è, da un lato, un prodotto commerciale elaborato da aziende che puntano alla massimiz-zazione del profitto e, dall’altro, sconta possibili bias di dati sporchi, parzia-li e non funzionali o bias di analisi e di progettazione (con ricadute anche gravissime sul principio di non discriminazione), allora si pongono delicati profili di incisione sui diritti e le libertà costituzionali (caso Loomis); se è vero che la potenzialità di calcolo e di elaborazione dei big data determina un nuovo potere sovrano transnazionale di natura essenzialmente tecnica, allora il diritto costituzionale, che studia la sovranità, ne è investito sin dal-le sue fondamenta in prima persona; se il cuore del costituzionalismo at-tuale risiede nella concretezza e nel pluralismo , allora l’adozione di si-stemi che prescindono dal caso concreto e dalle persone umane deve inter-rogare il ceto dei giuristi . In altri termini l’effetto congiunto della disin-termediazione dell’informazione, la polverizzazione sociale e l’inserimento, spesso surrettizio, nelle dinamiche e scelte individuali dei sistemi di AI portano con sé un vulnus allo stesso principio di autodeterminazione umana consapevole . «Detto in altre parole, siamo oggi di fronte a uno squili-brio tra potenza (tecnica) e razionalità (civile e politica), tra forza dei dispo-sitivi tecnico-economici globali e capacità di governarla secondo il bene comune. Uno squilibrio che sta mandando fuori asse il mondo e che ri-schia di diventare una vera e propria frattura: di determinare cioè una for-ma sociale e politica del mondo e dell’umano inadeguata a contenere ed elaborare la potenza della tecnica che essa stessa ha prodotto» .
L’aggressione tanto più è significativa e pericolosa, in quanto incanala-ta su binari poco trasparenti e, si ripete, surrettizi . Avuto riguardo ai va-lori e agli interessi di rango costituzionali coinvolti, è stata così sottolineata la necessità di adottare un principio di precauzione costituzionale che, par-tendo dall’individuazione dei rischi cui i sistemi di AI espongono questi valori, sia bussola protettiva per gli stessi a difesa dei diritti individuali e collettivi . Si è parlato, a tal riguardo, di un diritto costituzionale ibrido che operi attraverso l’anticipazione della tutela costituzionale : lo scenario attuale (e, ancor più, quello futuro) richiede che la protezione dei beni co-stituzionali, così come la tutela della libertà e rispetto della rule of law, ven-gano progressivamente anticipati rispetto alla messa in produzione delle applicazioni tecnologiche: in altri termini l’esigenza che la tutela dei valori costituzionali dovrebbe necessariamente realizzarsi con una retrazione delle tutele nel momento in cui il software viene progettato, disegnato e poi rea-lizzato (tutela by design e by default) in modo tale da interiorizzare i valori tu-telati dal diritto costituzionale nella stessa progettazione delle macchine; in-teriorizzazione dei valori che si dovrebbe spingere fino alla formazione ed educazione dei programmatori (tutela by education) attraverso apposite agen-zie formative . Con un’avvertenza fondamentale costituita dalla necessità che la prospettiva del costituzionalismo digitale proceda attraverso una sorta di rigenerazione semantica delle Carte esistenti, i cui parametri sono stati certa-mente elaborati e formulati in contesti diversi da quelli attuali, ma che so-no sicuramente suscettibili di un’interpretazione evolutiva, consapevoli dei problemi e delle urgenze dell’oggi .
Volendo rendere l’irresistibile avanzata dell’AI costituzionalmente compatibile, ovvero declinare alcuni indicazioni di principio fondamentali per un’intelligenza artificiale costituzionalmente orientata , la dottrina ha identificato alcuni must, che trovano nella disciplina eurounitaria, come ve-dremo, i primi precipitati regolatori in termini di divieti e di diritti: tra que-sti vanno certamente segnalati (1) il divieto di ogni automatismo decisiona-le (ovvero il principio di non esclusività, in altri termini il diritto ad essere resi consapevoli della natura umana o artificiale del proprio interlocutore e il diritto ad essere destinatari di decisione che siano il risultato di un pro-cesso in cui sia presente una significativa componente umana), (2) il divie-to di discriminazione, (3) il diritto ad ottenere una spiegazione dei passaggi attraverso i quali la macchina ha generato il proprio risultato (quindi il di-ritto alla motivazione della decisione). Come si vede da queste prime scar-ne indicazioni, siamo in presenza della necessità di riconfigurare la rule of law nella società algoritmica nella forma di una rule of Technology che sia connotata da una inedita interdipendenza tra principi di diritto pubblico e le regole predisposte dal diritto d’impresa per attuare una serie di tutele rafforzate specifiche al fine di garantire gli stessi obiettivi fissati dal diritto costituzionale .
I tempi sono maturi, sperando di non essere già ai tempi supplementa-ri. .

7. Law is code? come regolamentare i sistemi di A.I.?
Come visto, i sistemi di AI denunciano una mancanza strutturale di democraticità dell’algoritmo, sottratto ad ogni possibilità di motivazione po-stuma dell’output e di sua razionale giustificazione; deficit strutturale di trasparenza che è reso ancor più significativo ove si consideri, in primo luogo, che siamo in presenza di una classe di nuovi sacerdoti, novelli scribi digitali della formula algoritmica : la progettazione e la sua scrittura è ap-pannaggio delle scienze ingegneristiche, informatiche e logico-matematiche, tradotte in “codici sorgente” che non prevede il ricorso al linguaggio naturale (con cui si esprimono le regole e l’argomentazione giu-ridica), ma in uno dei 2.500 linguaggi informatici disponibili. In secondo luogo va attentamente considerata, quale ulteriore elemento di oscurità del sistema, negato alla trasparenza anche solo postuma, la natura proprietaria del sistemi e le conseguenti privative industriali che li caratterizzano: gli al-goritmi sono, prima di tutto, prodotti commerciali, soggetti alle leggi della proprietà intellettuale, protetti dalle aziende produttrici non solo agli occhi dei competitor e dei eventuali malintenzionati volti a “sabotarli”, ma anche alla possibilità del successivo vaglio in sede giudiziaria. Infine, non può non segnalarsi la strutturale instabilità e fluidità di questi sistemi: siamo in presenza di programmi in continua evoluzione e per definizione “insta-bili”, soggetti a continui aggiornamenti, versioni, integrazioni, pena il loro malfunzionamento o superamento, sulla base di nuovi prodotti offerti sul mercato.
Il punto di partenza non può che essere questo: code is law ovvero il codice è legge, l’algoritmo è regola e l’interfaccia è interpretazione («Our choice is not between “regulation” and “no regulation”. The code regulates. It imple-ments values, or not. It enables freedoms, or disables them. It protects privacy, or pro-motes monitoring. People choose how the code does these things. People write the code. Thus the choice is not whether people will decide how cyberspace regulates. People—coders—will. The only choice is whether we collectively will have a role in their choice—and thus in determining how these values regulate—or whether collectively we will allow the coders to select our values for us»). Il problema è, però, come rego-lamentare una realtà multiforme, forte di una sua koinè numerico-grafica che è, al contempo, apolide e globale (sicché ogni ipotesi di regolazione statale è destinata a rimanere inascoltata e disapplicata), in continuo diveni-re, essendo per definizione instabile (sicché il rischio di obsolescenza della norma è altissimo e immanente all’evoluzione ininterrotta della tecnologia), protetta da privative industriali e presidiata da un enorme potere fattuale di autoimposizione nella vita economica, sociale e personale (sicché ogni ipo-tesi di isolata regolamentazione autoritativa rischia di essere consegnata alla irrilevanza sociale). Parimenti, bisogna prendere atto di come le forme di self-regulation – ovvero di autoregolazione privata attraverso l’individuazione da parte degli stessi destinatari delle regole di principi e indirizzi, di natura principalmente etica, da tenere presente in occasione della progettazione e programmazione di sistemi intelligenti – sono risultate, se non fallimentari, comunque poco efficaci per affrontare le criticità in esame ; senza omet-tere di rilevare l’efficacia solo indicativa e parziale che può rivestire un in-tervento regolatorio di natura prettamente etica, sprovvisto, com’è, di un adeguato sistema sanzionatorio che ne garantisca l’effettività e il rispetto. L’esperienza nazionale e internazionale di questi ultimi decenni ha dimo-strato come tanto gli interventi di etero-regolazione pubblica da parte i soggetti internazionali, europei, nazionali, regionali e locali, quanto i tenta-tivi di autoregolazione da parte delle grandi imprese di IT, ovvero il c.d. GAFAM, non riescono isolatamente a realizzare efficacemente gli obiettivi prescelti . È, ormai, evidente che l’unica strada possibile è quella di una governance algoritmica di co-regolazione, ovvero il ricorso a forme miste di auto/etero normazione che individui un mix di regole destinate tra di loro ad integrarsi, tenendo conto dei limiti di ciascun strumento regolatorio. Tali interventi dovranno caratterizzarsi per un contenuto regolatorio pro-porzionato al valore e alla caratura degli interessi giuridicamente rilevanti, segnatamente all’importanza dei valori costituzionali attinti dai sistemi di intelligenza artificiale, dovendosi quindi garantire un’intensità normativa – quanto al contenuto della regolazione stessa – che sappia dosare sia norme di divieto assoluto che di liceità, insieme ad un corpus di prescrizioni, per così dire, intermedie che ammetta il ricorso a certe tecnologie purché ri-spettino determinate condizioni . Secondo tale condivisibile imposta-zione l’approccio regolatorio più corretto e suscettibile di positivi sviluppi è quello basato sull’analisi del rischio, nel qual caso la regola potrà e dovrà essere strutturata in termini di liceità, di divieto ovvero di possibilità di uti-lizzazione a certe condizioni alla luce della probabilità del verificarsi del danno, ovvero del rischio che il tenere un dato comportamento realizzi una probabilità di compromissione di un certo valore da proteggere. Que-sta prospettiva è stata, come vedremo, sposata dal diritto unionale con la nuova Proposta di regolamento sui sistemi intelligenza artificiale: piuttosto che il ricorso ad un sistema di tutele successive – limitate a stabilire ex post quali conseguenze derivino dalla violazione di certe norme – si è inteso, invece, porre regole di protezione preventiva, funzionali a ridurre ovvero azzerare la probabilità stessa delle violazioni, richiedendo – al fine di con-segnare una patente di liceità di una certa condotta – l’adozione di com-portamenti e adempimenti preventivi. Tale prospettiva – perfettamente coerente con quanto sopra osservato in punto di necessità che si interven-ga preventivamente sulla formazione dei programmatori e sulla individua-zione di doveri, cautele, valori e indirizzi etici da internalizzare nella fase della programmazione e progettazione del software – richiede una coopera-zione tra più enti pubblici e privati a livello globale ovvero un approccio multistakeholders , dovendosi concludere, sul punto, che «la regolamenta-zione dell’intelligenza artificiale dovrà necessariamente utilizzare un regi-stro normativo a geometria variabile capace di adeguarsi alle diverse di-mensioni del problema, di cui l’esigenza di un vero e proprio sistema di governo delle opzioni regolatorie che possa allocare razionalmente le fonti di regolazione al fine di massimizzare la tutela dei diritti e delle libertà nei confronti di queste utilissime ma rischiose nuove tecnologie» .
Risulta evidente, come, sullo sfondo del dibattito giuridico in corso, vi sia l’interrogativo relativo al se le attuali norme giuridiche siano sufficienti per regolamentare la robotica o, il contrario, se sia necessario creare regole specifiche , essendosi, condivisibilmente, compreso che «occorre virgola in primo luogo, individuare gli ordini di conflitti a cui dal luogo l’utilizzo dei robot, anche in considerazione della relativa differenziazione in termini di catalogazione identificativa; rapportare, poi, le questioni così evidenziate con le “ravvisate” regole date; saggiare, infine, la “eventuale” riferibilità (o, comunque adattabilità) e, dunque, e la possibile applicazione di regolamen-tazioni (già) sussistenti alle specifiche problematiche del settore indagato punto in alternativa, relativamente all’ultimo dei passaggi segnalati, si tratta di provvedere alla predisposizione di nuove discipline, appropriate in ra-gione della specificità e della particolarità delle questioni sollevate» .

8. La risposta regolatoria: verso un gold standard europeo?
L’esigenza di una risposta regolatoria ad un fenomeno così invasivo ha trovato distinte reazioni negli ordinamenti giuridici: dagli estremi dell’approccio tecno-libertario statunitense (incentrato sulla primazia del li-bero mercato tecnologico e dunque del libero esercizio del potere tecnolo-gico ed economico) e dell’opzione cinese (di un pervasivo controllo statale sulle tecnologie) , il percorso europeo si differenzia e caratterizza per l’obiettivo dichiarato di individuare soluzione finalizzata all’introduzione di regole conformi a parametri di equità, antropocentrismo e solidarietà, qua-le linea di mediazione tra le esigenze di promozione dell’integrazione del mercato digitale europeo a livello globale e i valori fondanti le tradizioni costituzionali dell’Unione e degli Stati membri : soluzione che si propone di rappresentare una sorta di gold standard mondiale .
L’approccio regolatorio europeo, in tal senso, è espressamente proteso a creare fiducia nell’AI in un’ottica antroprocentrica e mostra di volere rac-cogliere la nuova sfida di civiltà e tra civiltà in corso, sfida dagli esiti im-prevedibili . Il quadro di riferimento eurounitario, non a caso, si è mosso negli anni lungo un crinale che investe tanto l’ambito strettamente etico, quanto quello strettamente normativo. Pensiamo alla Dichiarazione di cooperazione sull’intelligenza artificiale (firmata da 25 paesi europei il 10 aprile 2018, che si basa sui risultati e sugli investimenti della comunità eu-ropea della ricerca e delle imprese nell’IA e stabilisce le basi per il Piano coordinato sull’IA), alla Carta etica europea sull’utilizzo dell’intelligenza ar-tificiale nei sistemi giudiziari e negli ambiti connessi (adottata dalla CEPEJ nel corso della sua 31 ͣ Riunione plenaria di Strasburgo, 3-4 dicembre 2018), alle Linee guida etiche “Creare fiducia nell’intelligenza artificiale an-tropocentrica” pubblicate l’8 aprile 2019, al “Rapporto sulla responsabilità per l’Intelligenza Artificiale e altre tecnologie emergenti” del Gruppo di esperti sulla responsabilità e le nuove tecnologie, pubblicato il 21 novem-bre 2019, alla consultazione pubblica sul Libro Bianco sull’Intelligenza Ar-tificiale (COM 2020) 65 final del 19 febbraio 2020 e, infine, alle recente Proposta di Regolamento UE com206/21 aprile 2021.
Forte delle Linee Guida Etiche adottate del 2019, la Commissione Eu-ropea con “Creare fiducia nell’intelligenza artificiale antropocentrica” dell’8 aprile 2019 – (COM (2019) 168 final – ha fornito un quadro di riferimento di sicuro significato politico-istituzionale, sottolineando i benefici che l’AI può apportare con l’impegno di promuovere la cooperazione transfron-taliera e mobilitare tutti gli attori per aumentare gli investimenti pubblici e privati ad almeno 20 miliardi di EUR l’anno nei prossimi dieci anni. Ha individuato l’obiettivo politico-istituzionale nel «creare fiducia nell’AI» ovvero «condizione indispensabile per assicurare un approccio antropocentrico all’IA: l’intelligenza artificiale non è fine a sé stessa, ma è uno strumento a servizio delle persone che ha come fine ultimo quello di migliorare il be-nessere degli esseri umani. Per questo occorre garantire l’affidabilità dell’IA. I valori su cui si basano le nostre società devono essere pienamen-te integrati nelle modalità di sviluppo dell’IA. La tecnologia dell’IA do-vrebbe invece essere sviluppata in modo da porre al centro l’essere umano e permetterle di conquistare la fiducia del pubblico. Di conseguenza, le applicazioni di IA dovrebbero non solo rispettare la legge, ma anche os-servare i principi etici e garantire che le loro attuazioni pratiche non com-portino danni indesiderati. La diversità in termini di sesso, razza o origine etnica, religione o convinzioni personali, disabilità ed età dovrebbe essere garantita in ogni fase dello sviluppo dell’IA. Le applicazioni di IA dovreb-bero dare potere alle persone e rispettarne diritti fondamentali; dovrebbero puntare a rafforzare le capacità dei cittadini, non a sostituirsi a loro, e con-sentire l’accesso anche alle persone con disabilità. Vi è quindi la necessità di elaborare orientamenti etici basati sul quadro normativo esistente e che dovrebbero essere applicati da sviluppatori, fornitori e utenti dell’IA nel mercato interno, stabilendo condizioni di parità sul piano etico in tutti gli Stati membri». Di particolare interesse sono le direttrici individuate, par-tendo dal presupposto che per ottenere un’“intelligenza artificiale affidabi-le” sono necessari tre elementi: 1) l’IA dovrebbe rispettare la legge; 2) do-vrebbe osservare i principi etici e 3) dovrebbe dimostrare robustezza: sulla base di questi tre elementi e dei valori europei, gli orientamenti individua-no sette requisiti fondamentali che le applicazioni di IA dovrebbero soddi-sfare per essere considerate affidabili. Gli orientamenti contengono anche una lista di controllo che aiuta a verificare nella pratica se tali requisiti sono soddisfatti. I sette requisiti fondamentali sono: intervento e sorveglianza umani, robustezza tecnica e sicurezza, riservatezza e governance dei dati, tra-sparenza, diversità, non discriminazione ed equità, benessere sociale e am-bientale, accountability.
9. Carta etica europea sull’utilizzo dell’intelligenza nei si-stemi giudiziari.
La Carta etica europea sull’utilizzo dell’intelligenza, adottata il 4 di-cembre 2018 dalla Commissione europea per l’efficacia della giustizia (CEPEJ) del Consiglio d’Europa, si è mossa nell’ottica di sviluppare una nozione di intelligenza artificiale affidabile anche in tal caso puntando alla internalizzazione nelle tecnologie di intelligenza artificiale di valori etici e di diritti fondamentali.
La Carta individua cinque principi necessari al fine di poter permettere l’applicazione di tali tecnologie nei sistemi giudiziari.
In primo luogo il principio del rispetto dei diritti fondamentali: il trat-tamento delle decisioni e dei dati giudiziari dovrà avere finalità chiare, che rispettino i diritti fondamentali garantiti dalla CEDU e dalla Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati di carattere personale. Quando gli strumenti di intelligenza artificiale sono utilizzati per dirimere una controversia, per fornire supporto nel processo decisionale giudiziario, o per orientare il pubblico, è essenziale assicurare che essi non minino le garanzie del diritto di accesso a un giudice e del di-ritto a un equo processo (parità delle armi e rispetto del contraddittorio). Essi dovrebbero essere utilizzati anche con il dovuto rispetto per i principi dello stato di diritto e dell’indipendenza dei giudici nel loro processo deci-sionale. Si dovrebbero quindi privilegiare gli approcci etico-fin dall’elaborazione.
In secondo luogo, il principio di non-discriminazione al fine di preve-nire in maniera specifica qualsiasi intensificazione o sviluppo di forme di discriminazione tra persone o gruppi di persone. Deve essere esercitata una particolare vigilanza sia nella fase dell’elaborazione che in quella dell’utilizzo, specialmente quando il trattamento si basa direttamente o in-direttamente su dati “sensibili”. Essi possono comprendere l’origine razzia-le o etnica, le condizioni socio-economiche, le opinioni politiche, la fede religiosa o filosofica, l’appartenenza a un sindacato, i dati genetici, i dati biometrici, i dati sanitari o i dati relativi alla vita sessuale o all’orientamento sessuale. Quando è individuata una di queste discriminazioni, devono es-sere previste le misure correttive al fine di limitare o, se possibile, neutra-lizzare tali rischi e sensibilizzare gli attori. Dovrebbe tuttavia essere inco-raggiato l’utilizzo dell’apprendimento automatico e delle analisi scientifiche multidisciplinari, al fine di contrastare tali discriminazioni.
In terzo luogo viene sottolineata l’importanza del principio di qualità e sicurezza, richiedendosi l’utilizzo di tecnologie adeguate, la costituzione di squadre di progetto miste, per brevi cicli di elaborazione, al fine di produr-re modelli funzionali è uno dei metodi organizzativi che permettono di ot-tenere il meglio da tale approccio multidisciplinare, la necessità che le fonti siano certificate e che sia possibile operare in un ambiente tecnologico si-curo. I dati che vengono inseriti in un software che si basa su un sistema di machine learning dovrebbero provenire da fonti registrate e rimanere inva-riati fino al momento in cui verranno elaborate dal calcolatore. Deve inol-tre essere possibile tracciare l’intero processo di elaborazione di questi dati in modo che si possa garantire che il significato della decisione trattata non sia stato modificato in nessun modo che ne abbia potuto alterare il conte-nuto.
In quarto luogo il principio di trasparenza, imparzialità ed equità: deve essere raggiunto un equilibrio tra la proprietà intellettuale di alcune meto-dologie di trattamento e l’esigenza di trasparenza (accesso al processo crea-tivo), imparzialità (assenza di pregiudizi), equità e integrità intellettuale (privilegiare gli interessi della giustizia) quando si utilizzano strumenti che possono avere conseguenze giuridiche, o che possono incidere significati-vamente sulla vita delle persone. Dovrebbe essere chiaro che tali misure si applicano all’intero processo creativo, così come alla catena operativa, in quanto la metodologia di selezione e la qualità e l’organizzazione dei dati influenzano direttamente la fase dell’apprendimento.
Infine, il principio del “controllo da parte dell’utilizzatore”: l’utilizzo di strumenti e servizi di intelligenza artificiale deve rafforzare e non limitare l’autonomia dell’utilizzatore. I professionisti della giustizia dovrebbero es-sere in grado, in qualsiasi momento, di rivedere le decisioni giudiziarie e i dati utilizzati per produrre un risultato e continuare ad avere la possibilità di non essere necessariamente vincolati a esso alla luce delle caratteristiche specifiche di tale caso concreto. L’utilizzatore deve essere informato con un linguaggio chiaro e comprensibile del carattere vincolante o meno delle soluzioni proposte dagli strumenti di intelligenza artificiale, delle diverse possibilità disponibili, e del suo diritto di ricevere assistenza legale e di ac-cedere a un tribunale. Deve inoltre essere informato in modo chiaro di qualsiasi precedente trattamento di un caso mediante l’intelligenza artificia-le, prima o nel corso di un procedimento giudiziario, e deve avere il diritto di opporvisi, al fine di far giudicare il suo caso direttamente da un tribuna-le ai sensi dell’art. 6 della CEDU.
In conclusione sul punto, pur non dovendosi sottovalutare l’impatto, quanto meno a livello di moral suasion dell’individuazione di regole etiche, espressione di soft law, non può non rilevarsi come si sia in presenza di mere raccomandazioni ai produttori, prive di vincolatività che sollevano notevoli problemi, sia in quanto «non contengono indicazioni pratiche su come applicare i requisiti enunciati e quindi su come tutelare effettivamen-te i diritti fondamentali dalle stesse enunciate», sia in quanto «un approccio incentrato solo su principi e finalità generali non risulta in grado di affron-tare i problemi concreti connessi a un design non etico e ha un utilizzo improprio di strumenti di intelligenza artificiale» ; non è un caso che il Parlamento europeo (nella Risoluzione per un quadro etico per l’intelligenza artificiale la robotica e le tecnologie connesse) ha sottoli-neato come i principi etici condivisi siano efficienti solo se declinati in re-gole giuridiche con una preventiva e puntuale identificazione dei soggetti tenuti a garantire valutare e supervisionare il rispetto dei relativi precetti normativi.
10. La proposta di regolamento UE sull’approccio europeo all’intelligenza artificiale.
La Commissione europea, consapevole dell’insufficienza delle norma-tive europee esistenti (quali quelli in materia di tutela del diritto di non di-scriminazione, di sicurezza dei prodotti di protezione del consumatore, di trattamento di dati personali da parte delle autorità pubbliche) , ha pub-blicato il 21 aprile 2021 la proposta di regolamento sull’approccio europeo all’Intelligenza Artificiale [COM (2021) 206 final], intitolato «il regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate in materia di intelligenza artificiale e che modifica alcuni atti legislativi dell’Unione» che si propo-ne come primo quadro giuridico europeo sull’IA e prevede, a tal fine, an-che un nuovo piano coordinato sull’Intelligenza Artificiale 2021 [COM (2021) 205 final] che rafforzi nel contempo l’adozione dell’IA e gli inve-stimenti e l’innovazione nel settore in tutta l’UE . Com’è stato osservato da autorevole dottrina la Commissione europea individua «due aree di in-tervento principali: la prima connessa alla riforma di regole già esistenti in particolare in materia di sicurezza dei prodotti e di protezione dei dati per-sonali; la seconda volta l’introduzione di nuove norme specificamente rela-tive alla fase di addestramento dei sistemi di intelligenza artificiale e di te-nuta dei dati e dei registri, alla trasparenza e alla precisione degli stessi si-stemi, alla sorveglianza umana, integrate da prescrizioni specifiche per al-cune tipologie di intelligenza artificiale considerate particolarmente rischio-se» .
Ciò che mette conto, in primo luogo, osservare è che si sia optato per l’adozione del regolamento in luogo della direttiva, analogamente a quanto già avvenuto col GDPR per la disciplina in materia di protezione dei dati, al fine di porre un quadro di regole vincolanti e uniformi per tutti i paesi dell’unione, salvo a mantenere alcuni margini di manovra per i singoli Stati membri, nonché prevedendo meccanismi di aggiornamento della discipli-na, necessari in considerazione della difficoltà di normare le tecnologie in-novative caratterizzate da sviluppi incessanti che rendono rapidamente ob-soleta qualsiasi disciplina volta a regolarla .
Quanto all’applicazione del principio della minimizzazione, ovvero meglio, di proporzionalità del rischio connesso all’adozione di sistemi di intelligenza artificiale – da declinarsi secondo una logica di progressiva e proporzionale per la quale occorre prevedere meccanismi adattativi e commisurati dell’intervento regolatorio rispetto al pericolo di compromis-sione dei diritti e delle libertà – vengono individuate regole valevoli per tut-ti gli Stati membri, caratterizzate da un approccio secondo la logica della valutazione adeguata sia al tipo di sistema di I.A. che al rischio di lesione dei diritti fondamentali derivante dal suo utilizzo, o per il settore in cui si applica, o per le modalità e tecniche utilizzate . Quale soluzione risulta, in primo luogo, particolarmente apprezzabili in quanto i sistemi l’intelligenza artificiale comprendono una pluralità di tecniche e applicazioni tra di loro molto distanti, caratterizzate da gradi variabili di autonomia, imprevedibili-tà e trasparenza e il cui utilizzo porta risultati potenzialità e rischi anch’essi assai vari, sicché l’intervento normativo non poteva che proporsi secondo direttrici di elasticità, proporzionalità, modificabilità successiva.
Sono così segnalati quattro livelli di rischio: (1) inaccettabile, con divie-to generale di applicazione (sistemi che manipolano il comportamento umano, con tecniche subliminali; sistemi volti ad attribuire un punteggio sociale da parte dei governi sui comportamenti e le manifestazioni del pen-siero dei cittadini; sistemi che sfruttano la vulnerabilità di persone per l’età o la disabilità; pratiche biometriche di identificazione in luoghi aperti al pubblico; per queste ultime, tra cui rientrano i sistemi di riconoscimento facciale, l’applicazione è però consentita per esigenze di pubblica sicurezza indicate nel regolamento, previa autorizzazione rilasciata dall’autorità giu-diziaria o da una autorità amministrativa indipendente); (2) rischio elevato, cui è dedicato l’intero Titolo III, per i quali sono imposte regole vincolanti in termini di validazione, etichettatura, analisi dei rischi e la cui violazione può comportare ingenti sanzioni pecuniarie (i sistemi ad alto rischio, che costituiscono il fulcro centrale della disciplina, riguardano trasversalmente quasi tutti i settori di possibile impiego: trasporti, gestione di sistemi a rete, componentistica di sicurezza dei prodotti, selezione e valutazione del per-sonale, erogazione dei servizi pubblici, ad esempio per l’accesso al credito, istruzione e formazione, attività di polizia di prevenzione o contrasto del crimine, sistemi di assistenza nell’amministrazione della giustizia); (3) ri-schio limitato, come i chatbot, gli assistenti virtuali; (4) rischio minimo, come i videogiochi, per i quali il regolamento non si applica, ma viene in-centivata l’adozione di “codici deontologici” a garanzia del rispetto di standard minimi di affidabilità.
In altri termini più il prodotto è suscettibile di mettere in pericolo beni giuridici, più severe sono le misure adottate per eliminare o mitigare l’impatto negativo sui diritti fondamentali, fino a vietare quei prodotti che sono completamente incompatibili con questi diritti. Mette conto, a tal ri-guardo, sottolineare come i sistemi di assistenza nell’amministrazione della giustizia sono stati posti nella categoria del rischio elevato, ovvero nella prima categoria per gravità di rischio che la proposta di regolamento individua subito dopo i sistemi a rischio inaccettabile per i quali vi è un espresso divie-to di utilizzo.
Per quel che concerne i profili di responsabilità derivanti dalle elabora-zioni effettuate dai sistemi di intelligenza artificiale, la proposta, pur non affrontando direttamente questa tematica, delinea una distribuzione della responsabilità sui soggetti a vario titolo coinvolti (l’autore del program-ma, l’utente, il produttore o il venditore) con un evidente richiamo al GDPR, all’art. 10, nella parte in cui attribuisce ai fornitori di tali sistemi l’obbligo di predisporre «garanzie appropriate per i diritti e le libertà fon-damentali delle persone diritti e delle libertà delle persone fisiche, compre-se le limitazioni tecniche al riutilizzo e l’uso di misure all’avanguardia per la sicurezza e la tutela della vita privata, quali la pseudonimizzazione o la crit-tografia quando l’anonimizzazione può incidere significativamente sullo scopo perseguito» . È stato efficacemente osservato che «la prospettiva più promettente sia quella della responsabilizzazione ex ante degli attori coinvolti nella produzione prima e nell’utilizzo poi di strumenti di intelli-genza artificiale: intervento del legislatore europeo si è mosso infatti (...) lungo il versante della procedimentalizzazione delle condotte di chi svilup-pa e utilizza strumenti di intelligenza artificiale, in un’ottica di minimizza-zione del rischio e dunque dei possibili danni connessi. In questo quadro i rimedi posti in capo ai soggetti interessati non sono di natura riparatoria, bensì di natura contestativa e oppositiva rispetto ai processi di sviluppo e di utilizzo dei sistemi automatizzati (...). Tale approccio procedurale pre-ventivo dovrebbe consentire di creare un mercato dell’intelligenza artificia-le che coniughi al contempo stimolo all’innovazione tutela dei diritti dei singoli, mirando a immettere sul mercato strumenti già aderenti ai parame-tri normativi rilevanti, comprimendo ex ante la sfera delle possibili respon-sabilità connesse allo sviluppo e all’utilizzo di strumenti di intelligenza arti-ficiale» .
11. Giustizia predittiva ad alto rischio.
1. – Con il regolamento della Commissione Europea per la disciplina delle applicazioni di Intelligenza Artificiale COM(2021) 206 final, approva-to il 21 aprile 2022, l’intero settore Giustizia dovrà confrontarsi con i di-versi adempimenti previsti dal primo quadro normativo di settore. Figura-no, infatti, tra le applicazioni di AI qualificate ad alto rischio anche quelle relative all’amministrazione della giustizia, così individuate dall’Annesso III del Regolamento: “Amministrazione della giustizia e processi democratici: a) siste-mi di IA destinati ad assistere un'autorità giudiziaria nella ricerca e interpretare i fat-ti e la legge e applicare la legge a un insieme concreto di fatti” .
La Proposta manifesta la piena consapevolezza della elevata rischiosità del ricorso ai sistemi di AI nel settore della giustizia, espressamente osser-vandosi in un Considerando che «Alcuni sistemi di IA destinati all'amministra-zione della giustizia e dei processi democratici devono essere classificati come ad alto ri-schio, considerando il loro impatto potenzialmente significativo su democrazia, Stato di diritto, libertà individuali e diritto a un ricorso effettivo e ad un giusto processo. In particolare, per affrontare i rischi di potenziali pregiudizi, errori e opacità, è opportuno qualificare come sistemi di IA ad alto rischio quelli destinati all'assistenza nella auto-rità giudiziaria nella ricerca e interpretazione dei fatti e della legge e nell'applicazione della legge ad un insieme concreto di fatti», sebbene con l’eccezione dei sistemi di AI relativi a «attività amministrative puramente accessorie che non incidono sull’effettiva amministrazione della giustizia in casi individuali, come l'anonimizzazio-ne o pseudonimizzazione di decisioni giudiziarie, documenti o dati, comunicazione tra personale, compiti amministrativi o allocazione di risorse».
Il regolamento prescrive una serie di obblighi di accountability sia per i provider di applicazioni di AI sia per gli utenti. Gli obblighi riguardano tutto il ciclo di vita dell’applicazione di AI, a partire dalla configurazione dei data set, elemento strategico in ogni settore ma soprattutto in quello della giustizia predittiva. Ciò che mette conto segnalare, come rilevato in uno dei primi commenti , è, in particolar modo, l’art. 29 del Regolamento - Obblighi degli utenti dei sistemi di IA ad alto rischio - che introduce alcuni ob-blighi orizzontali per gli utenti delle applicazioni di AI ad alto rischio, vale-vole anche per tutti gli operatori giudiziari che intenderanno avvalersi di questi strumenti.
La nuova proposta di Regolamento impone che i giuristi si interroghi-no sulle prospettive offerte dalla cd. giustizia algoritmica.
12. Iurisdictio e predittivività: nel labirinto degli imprevisti e delle probabilità.
L’algocrazia scuote le mura del diritto, già fessurate dalla globalizza-zione economica, investendo la teoria generale del diritto con una disruption antropologica, forse, senza precedenti. Se l’avvento di strumenti automa-tizzati, insieme alla enorme capacità computazionale, immuta la natura stessa dello strumento, trasformandolo da mero veicolo connettivo e co-municativo tra soggetti umani in un vero e proprio strumento conoscitivo e decisionale , caratterizzato sempre più da un elevato grado di autonomia rispetto al suo stesso creatore e se, poi, questo nuovo agente opera, revocan-do in dubbio la centralità epistemologica del principio di causalità scientifi-ca (in pro della mera correlazione statistica), allora al giurista si pongono dinnanzi esiziali domande di sistema: se debba o possa predicarsi una sog-gettività giuridica delle macchine automatizzate ; quale sia ancora il ruolo e la funzione della volontà negoziale e se, rispetto a questa nuova entità, nell’ambito della responsabilità , abbiamo ancora un senso (e una funzio-ne) concetti come il dolo e la colpa . Il sisma algoritmico mette anche in crisi la distinzione (e la separazione) tra sfera\diritto pubblico e sfe-re\diritto dei privati: la natura proprietaria dei sistemi algoritmici offre so-luzioni economiche e veloci al settore pubblico, determinando una vera e propria dipendenza tecnologica – ed ancor prima culturale - da parte delle amministrazioni pubbliche nei confronti delle imprese fornitrici .
I rischi e le opportunità, segnalate dalla pubblicistica (e qui somma-riamente richiamate), si replicano con ulteriori profili – sia critici che posi-tivi – anche allorquando si volga l’attenzione al rilievo che l’I.A. può as-sumere nell’ambito strettamente giudiziario e giurisdizionale.
Giudicare non è sumere calamos e abacos, come pensava Leibtniz (nella “Dissertatio de arte combinatoria”). I giudici non sono semplici calculatores sil-logistici. Là dove c’è diritto e domanda di giustizia non può aprioristica-mente predicarsi l’applicazione di una semplice regola logico-matematica automatizzata (salvo che si tratti di attività effettivamente vincolate e, forse, seriali). In più, il riferimento continuo alla predittività giudiziaria ri-schia di ingenerare un pericoloso equivoco , evocando la possibilità di una giustizia quasi anticipata; quasi che il giudizio e il progredire di atti, comportamenti, acquisizioni e finali riflessioni (senza dimenticare la di-mensione spazio-temporale-umana che lo caratterizza e vivifica) sia un orpello destinato ad essere superato - o quanto meno fortemente ridimen-sionato - grazie all’oracolo del nuovo mondo .
Se in altri paesi si sperimentano soluzioni giurisdizionali automatizzate, delle due possibili diverse prospettive, e cioè quella di una decisione roboti-ca e quella di un ruolo di mero ausiliare giudiziario (ovvero il ricorso ai si-stemi di A.I. di una funzione complementare della macchina predittiva di mero ausilio alla decisione), non si potrebbe che parteggiare per questa se-conda soluzione, ponendo comunque alcuni fondamentali distinguo.
Ma, prima di provare ad individuare i pro e i contra rilevanti per la terza via costituzionalmente orientata del massimo (possibile e ragionevole) impiego degli strumenti di A.I. in ambito giudiziario, vanno individuati di quale ausilii si discute in ottica combinatoria di contaminazione tra l’uomo e la macchina in fase sia pregiudiziale che propriamente giudiziale. Diversi sono gli ambiti e i settori individuabili: il legal aid e l’attività di ricerca dei precedenti significativi, l’ausilio preliminare all’avvio del procedimento giu-risdizionale per individuare il probabile esito dell’instaurando giudizio con possibilità di valorizzazione della successiva responsabilità processuale in caso di soccombenza ; la possibilità di una trattazione accelerata e auto-matizzata di casi seriali o a discrezionalità ridotta (small claims); la creazio-ne di sistemi esperti di segnalazione di allert su vincoli procedurali e\o or-ganizzativi; la facilitazione dello spoglio funzionale al filtro in Cassazione e in appello; il supporto a valutazioni tecniche di rilievo economico-monetario (indennità di licenziamento, assegno divorzile, invalidità civile, rischio insolvenza debitore, percentuali soddisfacimento dei creditore in ambito esecutivo\fallimentare); il supporto esperto alla decisione vera pro-pria con strumenti di coordinamento delle fonti nazionali\sovranazionali, di individuazione della normativa rilevante, dei precedenti giudiziari signi-ficativi, di simulazione di soluzioni alternative e di predisposizione della bozza di decisione - .
Il consolidamento del processo civile telematico e la migrazione in di-gitale del processo sono ormai in uno stadio molto avanzato, sicché, con-siderando anche la professionalità e l’interesse mostrati dal ceto forense, dai funzionari e dai magistrati italiani, si è in presenza di una significativa quantità di dati giudiziari, di natura sia prettamente statistico-organizzativa che giurisdizionale. La possibilità di una fruizione e rielaborazione di que-sta mole di dati offre prospettive molto positive sotto diversi profili : piena conoscibilità e trasparenza delle norme e della giurisprudenza rela-tiva; eliminazione delle asimmetrie informative\relazionali; forte impatto di democratizzazione sociale tramite la disintermediazione legale ; elisione del contrasto giurisprudenziale inconsapevole in funzione della certezza del diritto e della parità di trattamento; conseguente potenziale effetto deflatti-vo dell’arretrato giudiziario; realizzazione di risparmi economici ed econo-mie di scala; riduzione complessiva della durata dei processi; rinnovata ca-pacità di programmazione giudiziaria e di valutazione delle performan-ces . Se così è, allora, ci si trova di fronte ad indubitabili benefici attesi, i quali non possono che consigliare l’adozione di sistemi esperti anche in ambito giudiziario, sebbene – eletta la via del ricorso ai sistemi di AI – si imponga un’attenta e rigorosa disamina delle criticità che il ricorso ai si-stemi esperti determina, atteso i valori costituzionali coinvolti in sede giuri-sdizionale.
Molteplici parametri di costituzionalità legano la iurisdictio alla persona umana e conclamano, in netta contrapposizione alla prospettiva del giudi-ce-robot, la direttrice della possibile fruizione dell’AI nel settore giudiziario solo in funzione servente e consulenziale: l’art. 102 Cost. fa chiaramente riferimento al giudice persona fisica (quale giudice naturale precostituito per legge) e richiede che la funzione giurisdizionale sia affidata a magistra-ti; l’art. 111 Cost. per inverare il giusto processo fa riferimento ad un giu-dice terzo e imparziale, così come l’art. 101 Cost. vuole che i giudici siano soggetti solo alla legge, escludendo che il giudice possa essere vincolato all’esito dell’algoritmo predittivo; l’art. 24 Cost. postula il pieno dispiega-mento del diritto di difesa tra esseri umani che sarebbe di fatto schiacciato (o quanto meno, compresso) di fronte all’enorme potenza computazionale di un algoritmo capace di processare decenni e decenni di pronunce giuri-sprudenziali. Non senza dimenticare, come è stato efficacemente osserva-to, che “vi è anche un argomento giuridico di rango costituzionale, che fa capo al prin-cipio di indipendenza del potere giudiziario dal potere politico, presente negli ordina-menti di democrazia liberale. Principio che non sarebbe più garantito nel momento in cui la decisione giudiziaria fosse interamente determinata da processi di AI impostati secondo scelte del potere politico . La dottrina che ha affrontato questi temi ha sapientemente illustrato i contra che ancora presidiano lo scranno umano del giudicare .
Ma, al di là dei limiti costituzionali alla cd. Giustizia predittiva di fonte algoritmica, è bene soffermarsi sui limiti intrinseci e ontologici che porta seco il ricorso alle tecnologie algoritmiche nel settore giuridico e, specifi-camente, in quello giurisdizionale. Pensiamo, in primo luogo, alla disuma-nità del programma a confronto della centralità dell’umano, quale perno e dato antropologicamente complesso, storicamente individuato, spazialmen-te e temporalmente collocato, fortemente intriso e caratterizzato anche da una, ineludibile, dimensione simbolica; alla natura proprietaria, elitaria, muta e oscura della scrittura digitale, negata alla voce, alla emozione, al contesto; al tramonto dell’interpretazione a favore dell’induzione probabili-stica , alla reductio della decisione giudiziaria a fatto numerabile a codice binario, deprivato della sua storicità, riaggregabile e correlabile senza limite; al potenziale normativizzante dell’algoritmo predittivo, destinato a divenire fonte alternativa di normatività giuridica per la sua formidabile capacità di autoimporsi sulla scorta del precedente alimentato (tramite un’infinità serie giurisprudenziale assunta come mero dato fattuale finale decontestualizza-to, ma statisticamente rilevante sulla base di mere correlazioni induttive); alla deriva prescrittiva del responso algoritimico per il timore reverenziale del giudice-uomo posto dinanzi alla potenza calcolatoria del sistema e alla verosimile, conseguente, cd. Cattura del decisore ovvero alla possibilità di un giudice, piegato dalla propria pigrizia mentale, che si sottragga all’onere rinforzato di motivazione dissenziente rispetto al responso algoritmico . Pensiamo, ancora, alla possibile, progressiva, cristallizzazione della giuri-sprudenza, soggetta ad un sistema che strutturalmente per sua program-mazione valorizza - alla ponderazione del caso singolo, storicamente con-notato e, in ultima analisi, alla qualità della decisione - una deriva determi-nistico\quantitativa . In questo scenario, per certi versi, distopico (ma non troppo), si assisterebbe ad uno dei tanti paradossi dell’innovazione tecnologica, la quale - consacrando che la legge si fonda ormai più sulla quantitas anteatta, piuttosto che sull’auctoritas – diverrebbe un formidabile araldo della conservazione e del rafforzamento delle tendenze maggiorita-rie. Si realizzerebbe per tale via una sorta di pietrificazione del tempo attra-verso l’affermazione di un tempo virtuale che, per predire il futuro possibi-le, nel presente valorizza il passato, rafforzando l’ideologia a scapito della utopia, ovvero del futuro stesso .
Lo sviluppo dell’AI ha, per citare Umberto Eco, creato due fazioni di-stinte: gli apocalittici e gli integrati . Gli apocalittici sono coloro che ve-dono nell’Intelligenza Artificiale un demone pronto a prendere il soprav-vento sulle persone e sull'umano; un nuovo Moloch destinato a privare l'umanità della capacità di volere e decidere, sottraendo il lavoro alle per-sone, violando la loro privacy e controllando impercettibilmente la loro vi-ta; di contro, gli integrati aspirano e sognano un nuovo mondo dove mac-chine guidate da strumenti di AI siano veicoli di amplificazione delle quali-tà umane .
Anche in questo caso, occorre razionalizzare e individuare il passaggio a nord-ovest, stretto e periglioso e, per certi versi, ancora a venire , che consenta di progredire lungo una strada che valorizzi, senza snaturare, l’integrazione tra uomo e macchina e individui il valore aggiunto dell’immensa capacità di calcolo e analisi che è oggi a portata di mano. In questo campo l’AI, ed in particolare le tecniche di ML e di NLP, potranno essere di grande aiuto all'organo giudicante: la carta vincente è un’interazione uomo-macchina consapevole (sin dal primo momento della programmazione), vigilata e mite . L’AI può supportare in modo con-creto il giudice fornendogli informazioni utili al suo ragionamento , ma solo come ipotesi astratte, fondate su output probabilistici degli orienta-menti della giurisprudenza, confronti e correlazioni di informazioni, rico-struzioni e collegamenti tra norme e fatti non correlati . Tale apertura dovrà sempre considerare un rischio immanente, già più volte richiamato, ovvero la consapevolezza della forza bruta di auto-imposizione che la tec-nica esprime anche rispetto al diritto e alla giustizia. Ci si riferisce a quella che efficacemente è stata definita la travolgente forza pratica dell’algoritmo , ovvero il pericolo della cd. cattura del decisore (tanto più, sia consentito os-servare, ove il decisore sia attinto da carichi di lavoro non suscettibili di una adeguata trattazione significativa).
Occorre che il sistema istituzionale - e quello giudiziario in particolare - sappia sviluppare competenze e anticorpi culturali idonei a fugare dubbi ed evitare questi rischi: la risposta per un utilizzo consapevole e costituzio-nalmente rispettoso dei sistemi di AI non può che passare da una risposta sistemica di tipo cooperativo dei vari attori istituzionali, pubblici e privati che siano: come è stato osservato, occorre raccogliere «la sfida di un insieme di strumenti legal tech al servizio dei diversi formanti giuridici. Collegare simili inizia-tive al processo telematico e alla dematerializzazione della pubblica amministrazione potrebbe soddisfare una pluralità di esigenze in uno “spazio comune” del materiale giu-risprudenziale per ciascun ordinamento, basandosi sulla logica Open Data. Il che ren-derebbe, di fatto, accessibile a tutti un profilo del tutto quotidiano della società, quale è quello del contenzioso civile rispetto alle relazioni fra consociati». Qualunque sia la strada da intraprendere, non v’è dubbio che dovrà tenersi conto dei princi-pi ineludibili emersi dalla presente riflessione: in aggiunta ai cinque principi individuati dalla Carta etica della Cepej , dovranno essere attentamente considerati il principio della conoscibilità e, soprattutto, di conseguente comprensibilità (della logica) della decisione fondata su sistemi automatiz-zati, il principio di non esclusività , il principio di precauzione costituzio-nale per cui «deve esistere una regolazione effettiva, di livello sovra-nazionale e sovra-legislativo, riguardante le tecnologie, vòlta ad evitare il verificarsi di violazioni delle li-bertà fondamentali non più (o molto difficilmente) rimediabili una volta che esse sono state diffuse» .
13. Conclusioni a dimensione umana
In un saggio del 1967, il filoso Pietro Piovani raccoglieva la sfida che si è tentato sommariamente di descrivere e concludeva con una speranza: «L’involontaria pedagogia della macchina esorta alla radicalizzazione elementare del principio della vita: alla fine (letteralmente alla fine) può essere la macchina a rimettere in moto, con la sua semplificazione radicale, il congegno della coscienza. La sua poten-zialità distruttiva è forse la più valida potenza soterica per l’umanità novecentesca. Se, grazie alla macchina scatenata, l’uomo imparerà di nuovo a tremare (nel senso, come a me piace intendere, di ragionare, ripensare...), sarà salvo» .

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.