testo integrale con note e bibliografia

“Algocrazia” e perplessità
Alle preoccupazioni crescenti per il prezzo pagato dalla persona allo sfruttamento della natura attraverso l’u- so spregiudicato della tecnologia, si sono aggiunte ne- gli ultimi anni e soprattutto in questo tempo ulteriori e gravi preoccupazioni per il prezzo che la persona rischia di dover pagare allo sviluppo di quella tecnologia nella cosiddetta – e infelicemente definita – civiltà delle mac- chine.
Mi riferisco alla nascita, alla crescita e soprattutto al recente e stupefacente percorso dell’intelligenza artifi- ciale, con particolare riferimento alle novità e alle nume- rose varianti delle chatGPT. Si tratta della capacità (effet- tiva o presunta) della macchina di produrre un risultato accettabile nei termini di un pensiero e di uno pseudo ragionamento umano; di utilizzare a tal fine i dati acqui- siti con la sua incommensurabile capacità di raccogliere e di tradurre la loro elaborazione in conclusioni e con espressioni linguistiche o iconiche prelevate e adottate dal patrimonio di informazioni assimilato dalla macchi- na stessa.
Si tratta in sostanza di tradurre il risultato di una ela- borazione latu sensu probabilistica e statistica – fondata su un patrimonio enorme di conoscenze comunque ap-

prese e fra loro combinate – in risposte e immagini ade- guate alle domande più diverse: di ricostruire il passato; di anticipare i possibili effetti riconducibili a decisioni, scelte e comportamenti del presente; di prevedere il fu- turo nelle sue manifestazioni e ipotesi. In parole sem- plici, si tratta del timore della “algocrazia” (la dittatura degli algoritmi o meglio di chi li gestisce).
Non è possibile in questa sede addentrarsi nell’anali- si dei numerosi significati e definizioni dell’intelligenza artificiale e delle sue applicazioni ai settori più dispa- rati della convivenza e dell’attività umana. Dalla cultura alla politica, all’economia, al commercio, alla giustizia, all’istruzione, alla medicina, alle applicazioni nel campo tecnico e scientifico.
È sufficiente ricordare – per una riflessione giuridi- ca di carattere generale sulla transizione tecnologica e i suoi problemi – sia le implicazioni dell’intelligenza ar- tificiale nel rapporto tra giustizia e sicurezza; sia quelle tra gli strumenti rispettivamente regolatori di entrambe. Ci si interroga sulla scelta di adottare, nei limiti del possibile, strumenti già consolidati dalla tradizione e tuttora operanti anche se male; oppure di cercare nuo- vi strumenti. È meglio procedere con l’elaborazione di nuove regole, calibrate sulle novità della dimensione di- gitale; oppure adeguare gli strumenti esistenti alle nuo-
ve realtà che ci investono?
Non è facile rispondere. È evidente che la ricerca di una risposta – attraverso l’analisi di una sterminata massa di dati raccolta dal passato e nel presente ed ela- borata dalle nuove tecnologie – è volta a formulare pre- visioni e predizioni per soddisfare domande e attese di

conoscenza del futuro o anche del passato, in vista delle decisioni da adottare rispetto al presente.
Tutto ciò si risolve in un mutamento radicale dell’in- formazione e della conoscenza e della capacità della prima a condizionare valutazioni e decisioni nel campo dell’etica, della politica, del diritto, della cultura e della ricerca.
È sufficiente – per comprendere le varianti offerte da queste nuove e stupefacenti aperture della conoscenza – porre a confronto le scelte libertarie e di mercato pro- poste negli Stati Uniti e quelle di un capitalismo di Stato sotto controllo proposto in Cina; o con l’aspirazione eu- ropea alla ricerca di un equilibrio tra persona e mercato, tra persona e istituzione, tra libertà e sicurezza.
È possibile – di fronte alla esaltazione dei vantaggi o al contrario dei problemi aperti dalla stupefacente tran- sizione tecnologica – conservare un equilibrio umano che non si traduca nella alternativa tra i due estremi de- gli apocalittici o degli integrati?
È una ricerca probabilmente fondata sulla tradizio- ne europea di cultura storica, religiosa e umanistica; sulla conseguente cultura tradizionale della privacy e della libertà della persona; sulla attuale “debolezza” dell’Europa come alternativa di fronte ai due model- li dominanti rispettivamente di mercato e di controllo tecnologico.

Dai big data alla “conoscenza universale”
Per riassumere a grandi linee il percorso verso il “mondo nuovo” della rivoluzione digitale, dell’algoritmo e delle sfide dell’intelligenza artificiale nella sua affermazione

e vorticosa crescita, occorre muovere dalla ambiguità e genericità della sua “definizione onnicomprensiva”, poco rigorosa e precisa proposta dall’AI Act europeo, re- centemente approvato.
La premessa a questa definizione sintetica sembra essere la “scoperta” dei big data; del loro vantaggio com- petitivo nel marketing commerciale e politico; della loro diffusione con il social network e le piattaforme digita- li; delle tecniche per la loro “estrazione”, trattamento ed elaborazione come strumenti leader di pubblicità; della grandezza e del valore economico rappresentato dalla loro velocità, varietà, volume.
Contribuisce a quel valore la funzione dei big data di “alimentare” l’intelligenza artificiale in tutti i settori del vivere umano, dalla loro possibilità di manipolazio- ne per generare un grande potere sociale, commerciale, economico, politico e soprattutto un grande profitto.
È noto il mutamento profondo che negli ultimi venti- cinque anni si è creato sia nel mondo dell’informazione; sia nella trasformazione di essa da valore per i suoi con- tenuti a prodotto strategico, politico e commerciale; sia nel ruolo delle piattaforme per l’organizzazione capita- listica del mercato e la rilevanza politica.
È nota altresì la maturazione di un’inquietudine per l’applicazione dell’intelligenza artificiale in modo incon- trollato e forse incontrollabile; per le sue conseguenze possibili o temute sul comportamento umano, a fronte dei suoi molteplici e innegabili vantaggi. Da ciò la richie- sta e la progressiva sensibilizzazione verso la ricerca di regole, limiti e controlli nell’estrazione e nella governan- ce dei big data, in vista della cosiddetta cybersecurity e

dell’esigenza di garantire livelli fondamentali di privacy, di dignità umana, di rispetto dei diritti fondamentali.
Da ciò un’eguale sensibilizzazione verso la ricerca per garantire le regole e la trasparenza di un mercato che gestisca senza eccessi di manipolazione (ad esempio le fake news) un’informazione divenuta bene privato e commerciale da bene anche pubblico che era in prece- denza. A ciò si aggiunge lo “scontro” sulla titolarità dei profitti che reclamano tra di loro i produttori e gli utiliz- zatori della materia prima “informazione”.
Quella ricerca ha ovviamente coinvolto il ruolo del diritto sotto molteplici profili per conformare l’uso dell’intelligenza artificiale ai valori fondamentali della convivenza. Dignità, autonomia e libertà delle persone, integrità e sicurezza nel rapporto fra uomo e macchina diventano fondamentali.
Esse sono a rischio in un “mondo digitale” che non si limiti a interventi di miglioramento e aiuto all’attività umana; ma miri a sostituire quell’attività. La maggiore autonomia della macchina apre la via ai problemi e ai rischi che ne nascono in tema di democrazia, di autode- terminazione, di dignità e di responsabilità.
In sostanza siamo di fronte a una serie di problemi competitivi – per quantità e complessità delle alternative e difficoltà di soluzione – con quelli aperti dal cambia- mento climatico. Devono essere affrontati con urgenza eguale in entrambe le transizioni ecologica e tecnologica. Lo sviluppo di questa nuova realtà ha portato all’a- pertura di un nuovo fronte non soltanto di ordine socia- le ed economico; ad esempio per il problema del lavoro e della rinnovazione nei suoi contenuti, rispetto a quelli

già tradizionali e consolidati; ma anche e prima ancora a un fronte di ordine etico.
Quest’ultimo aspetto concerne in particolare le deci- sioni che possono essere prese dalla macchina in con- seguenza del suo autoapprendimento. In sostanza con- cerne l’equilibrio del rapporto tra macchina e persona umana a seguito della crescita non agevolmente preve- dibile delle potenzialità di essa.
Alla richiesta ormai pressante di regole – nell’al- ternativa tra etero e self-regulation – l’Unione Europea ha cercato di rispondere con l’AI Act da essa approvato per prima a livello mondiale. Dopo una lunga e fatico- sa elaborazione ha regolato l’intelligenza artificiale con lo scopo (qualcuno pensa con l’illusione) di rispettare e tutelare i diritti fondamentali e la dignità delle persone. L’IA viene definita «sistema basato su macchine, pro- gettato per operare con vari livelli di autonomia che può mostrare capacità di adattamento dopo l’implementa- zione e che, per obiettivi espliciti o impliciti, deduce da- gli input che riceve come generare output quali previsio- ni, contenuti, raccomandazioni o decisioni che possono
influenzare ambienti fisici o virtuali».
È una definizione che contiene tutto e il suo contra- rio. Forse eccede nelle affermazioni possibiliste e dubi- tative. Rischia di proporre una regolamentazione troppo dettagliata e troppo complessa, di carattere burocratico e di difficile applicabilità: sia rispetto all’evoluzione con- tinua della tecnologia; sia rispetto allo stato dei merca- ti che vedono come antagonisti e protagonisti gli Stati Uniti e la Cina con il loro progresso tecnico; sia infine rispetto alla possibilità che i concorrenti europei finisca-

no per essere esclusi dalla competizione e dalla corsa al progresso tecnologico.
L’eccesso di complessità conseguente alla molteplici- tà dei problemi da affrontare può spingere a una spe- cializzazione “deresponsabilizzante” ed esasperata di fronte alla realtà e complessità della vita e dei problemi da affrontare e risolvere.
Non è questa la sede per esprimere un giudizio pre- suntuoso e incompetente sul rapporto tra i rischi di con- cretezza e i vantaggi di principio che derivano entrambi dalla consapevolezza e volontà di affrontare il tema dei limiti, dell’equilibrio e delle regole nel rapporto tra per- sona e macchina.
La scelta dell’Unione Europea segue una traccia già ampiamente segnata – se pure con molte difficoltà – nel percorso verso l’unità europea attraverso la ricerca del difficile equilibrio tra interessi (soprattutto economici, ma anche politici) e diritti.
Sotto questo aspetto la scelta merita condivisione e apprezzamento. Risponde a un’esigenza di etica laica – non soltanto morale e religiosa – ispirata al valore della persona e alla sua tradizione consolidata nella storia eu- ropea e nel nostro passato.
Tuttavia ciò non esclude il diritto-dovere di espri- mere dubbi e perplessità di fronte a un futuro (anzi un presente) che non sappiamo cosa in realtà ci riserva sotto molteplici aspetti: da quello geopolitico a quello sociale, culturale ed economico. Un futuro che perciò giustifica comunque il richiamo sin da ora a quei prin- cipi consolidati i quali in qualche modo hanno rappre- sentato (o avrebbero dovuto rappresentare) il nucleo di

quelle che giustamente definiamo storia, civiltà e cul- tura europee.
È una scelta in qualche modo costretta dalla moltepli- cità di elaborazioni e applicazioni in cui si articola e da cui è condizionata la progettazione dell’intelligenza ar- tificiale nei campi più disparati; dalla logistica alla medi- cina, alle esigenze e alla tecnologia nei più diversi settori e servizi che essa propone di fronte alle richieste umane. La ricerca di un denominatore comune per tutte queste varianti in continuo aumento sembra riconducibile (con una sintesi di semplificazione) a una “riserva di uma- nità”. Su di essa insistono gran parte degli osservatori e degli studiosi della materia.
Altro e ben più complesso problema è quello di ap- profondire i presupposti, i limiti, i condizionamenti, i contenuti e i modi per salvaguardare e tutelare una si- mile riserva. Così da evitare la semplicistica e superfi- ciale sintesi secondo cui gli Stati Uniti sviluppano il pro- gresso; la Cina lo “copia”; l’Europa si occupa delle regole (buona ultima, anche se “prima”).

Giustizia e tecnologia
Il tema della giustizia è particolarmente significativo per il confronto tra passato e futuro, che si traduce in ultima analisi nelle due soluzioni estreme e semplificate del giudice-uomo e del giudice-robot.
Per quest’ultimo l’obiettivo sembra essere all’appa- renza quello della giustizia del precedente: il giudice come bocca del computer; non più come bocca della leg- ge e del sovrano o da ultimo del popolo.
La macchina dovrebbe essere evidentemente priva

di discrezionalità. Dovrebbe scegliere quali regole ma- tematiche applicare per la soluzione del caso attraverso un “ragionamento” di tipo probabilistico fondato sull’e- same dei precedenti (raccolti in quantità sterminata), anziché attraverso un ragionamento tradizionale di tipo interpretativo e giuridico.
Il compito affidato alla macchina – alla luce dell’af- flusso delle richieste e dell’entità del patrimonio infor- mativo raccolto – è logicamente orientato verso la quan- tità dei casi, la velocità e l’efficienza delle risposte da elaborare; più che verso la qualità di queste ultime e la specificità dei singoli casi da decidere.
Sembra particolarmente emblematico a questo pro- posito il settore della giustizia, di fronte alla gravissima crisi che essa attraversa. È una crisi che non sembra aver trovato soluzioni costruttive di fronte alla realtà di uno scontro cronicizzato tra i protagonisti “tecnici” tradi- zionali della materia (giudici e avvocati); nel sostanzia- le disinteresse della politica tutta per le sue molteplici emergenze: a cominciare dalla lentezza dei processi per finire con il dramma del carcere, in un quadro di peren- ne e quotidiana strumentalizzazione e conflittualità tra politica e giustizia.
La nuova prospettiva comporta inevitabilmente un declassamento del “fatto” oggetto della valutazione e del suo autore. Ne deriva il rischio di una sottovalutazione dei “corollari” di principi, di garanzie e di diritti che – per tradizione e soprattutto per riconoscimento costituzio- nale – presiedono alle regole da applicare nella valuta- zione del fatto, delle caratteristiche dell’autore, delle de- cisioni e delle conseguenze sanzionatorie connesse.

Da ciò insomma la scomparsa o la svalutazione di principi costituzionalmente garantiti e tradizionali: nul- lum crimen nulla poena sine praevia lege; nemo tenetur se detegere; cogitationis poenam nemo patitur; ne bis in idem. Quei principi – come quello sulla responsabilità pe- nale personale in senso oggettivo e soggettivo e quello sulla presunzione di non colpevolezza – non hanno più molto senso di fronte alle più recenti esperienze di stu- dio e di “potenziamento” del cervello umano; rispet- to alla evoluzione del progresso tecnico e dei risultati raggiunti dalla macchina nella sua pretesa “capacità” di cogliere, fissare, rappresentare ed “esteriorizzare” sentimenti, passioni, emozioni, pensieri, dubbi che in precedenza erano “patrimonio esclusivo” della mente
umana.
Ciò vale altresì per i parametri tradizionali e già fon- damentali di valutazione della colpa e del nesso di cau- salità tra un comportamento e un evento in termini di probabilità e prevedibilità.
Se ci si avvia sulla strada del “giudice-robot” – o quanto meno non la si esclude – diviene molto labile la possibilità di coglierne il confine con un’azione di sup- porto della macchina al “giudice-persona”; e quindi di distinguere fra quest’ultimo e il robot.
Si rischia di eliminare entro certi limiti le vere e pro- prie “decisioni” maturate attraverso la ricerca e la rifles- sione sui precedenti. Si rischia di azzerare il confine tra norma giuridica e regola algoritmica; tra integrazione e conservazione di quanto è noto per l’esperienza passata e per la conoscenza acquisita dal giudice e quanto invece è stato registrato dalla macchina.

In altre parole nella ritenuta “solidità” del “referto” robotico si rischia di dimenticare i suoi limiti. Essi si ri- assumono nella possibilità di errori nella sua “alimen- tazione”; nei bias derivanti dalla sua formazione e dagli eventuali pregiudizi presenti nei dati che la macchina ri- ceve ed elabora; nella mancanza di una vera e sicura sua neutralità, solo apparente; nella opacità del suo “ragio- namento” e della “scatola nera” che lo contiene e della sua motivazione; nella sua imprevedibilità rispetto alla sua programmazione.
D’altronde rimane assai difficile e complesso – an- che se non sembra concettualmente impossibile – ov- viare a questi problemi e deficit con i rimedi proposti dai principi del processo tradizionale: il diritto di difesa; il contraddittorio tra le parti; l’obbligo di motivazione; l’impugnazione.
Sono troppo noti e drammatici i limiti del giudizio umano che emergono dalla crisi del pianeta giustizia in tutti i suoi aspetti. Essi nascono dalla complessità e confusione delle leggi e dal pluralismo delle loro fonti; dalla sovrapposizione del “diritto vivente” nell’interpre- tazione giurisprudenziale – con le sue inevitabili diverse soluzioni – al formalismo del “diritto morente” di una legge troppo spesso obsoleta e inadeguata. Quei limiti nascono altresì dalle mancate riforme e dalla molteplici- tà dei problemi dell’ordinamento giudiziario e dell’orga- nizzazione dell’apparato.
Sono limiti ulteriormente complicati dallo scontro reiterato tra le diverse posizioni e le scelte politiche e tec- niche le quali caratterizzano il dibattito ultradecennale e ormai cronico sulla giustizia. È uno scontro aggravato

dalla costante crescita della domanda di giustizia e dalla mole del lavoro che ne deriva ai diversi livelli dell’appa- rato giudiziario; dal succedersi e dal sovrapporsi di ri- forme incoerenti fra loro e disorganiche per rispondere alle istanze della politica; dalla sequenza e dall’escala- tion degli strumenti di investigazione; dalla lentezza dei processi e dai loro riflessi sulla libertà della persona e sulla sua privacy; soprattutto dal dramma del carcere e dell’esecuzione della pena.
Quei limiti riflettono la mancanza di un equilibrio tra le esigenze della sicurezza per tutti, quelle della giustizia per ciascuno e la deriva dell’opinione pubblica e politica – alimentata troppo spesso dai media e dai social – ver- so un “panpenalismo” e un “pancarcerismo” dimentichi del ruolo di extrema ratio del processo e del carcere nella convivenza sociale.
È forte la tentazione di preferire a questo punto il giu- dizio della macchina anziché quello della persona, pur di avere un prodotto giustizia neutrale, efficiente, velo- ce. Il prezzo è però a ben vedere molto elevato. Significa rinunziare alle “riserve di umanità” della giustizia e del giudizio; all’emotività e all’empatia; al dubbio ragione- vole; a una conoscenza che vada al di là dell’apparenza di una “conoscenza di tipo algoritmico”. Quest’ultima può forse cogliere a perfezione le varianti e le peculiarità del caso da decidere; ma ignora comunque il significato concettuale e umano delle parole che usa.
Il prezzo dell’umanità è un requisito fondamentale della giustizia. È costituito purtroppo anche dalla possi- bilità dell’errore, dell’inerzia, della lentezza, degli ecces- si di interpretazione, dell’arbitrio nella incontrollabilità

della persona-giudice. Ma è soltanto questo che consen- te di distinguere tra l’aiuto – opportuno anzi necessario – della scienza alla decisione resa da una persona e il prodotto artificiale del robot.
I limiti dell’apparente “neutralità ideale” del “ragiona- mento giuridico robotico” sono in ultima analisi i riflessi del potere di chi in realtà “gestisce” il robot senza poter escludere con sicurezza l’imprevedibilità delle conclusioni cui può giungere quest’ultimo discostandosi dagli obiettivi programmati e dai risultati perseguiti dal suo “gestore”.

Digitalizzazione, intelligenza artificiale e giustizia
Una giustizia algoritmica dovrebbe tener conto dei dirit- ti umani di nuova generazione e della loro salvaguardia e tutela nel contesto dell’intelligenza artificiale genera- tiva: il diritto alle “riserve di umanità” e alla componente umana; quello alla “prudenza ed educazione digitale del giudice, del pubblico ministero e dell’avvocato”; quello alla distinzione che deve essere percepita tra il prodotto della giustizia umana e quello della giustizia robotica.
La mancanza di questa prospettiva può condurre alle conclusioni di recenti ricerche condotte negli Stati Uniti sul forum shopping dei diritti e dei giudici il quale è conse- guenza del sistema più che della tecnologia. Si fonda su un modello di intelligenza artificiale per prevedere l’esito della decisione “senza guardare la legge o il fatto” concreto ma i dati biografici e la “storia decisionale” del giudice cui la de- cisione venga affidata con una sorta di sua “profilazione”.
Si può così orientare la scelta dell’avvocato che tutela la parte nel processo tra l’agire o resistere e accettare una mediazione. Un “trionfo” della logica del profitto e dell’ef-

ficientismo rispetto a quella del diritto cui siamo abitua- ti per tradizione e per conoscenza personale. Un revival della mediazione e della sua funzione deflattiva per una giustizia sovraccarica di pendenze e arretrato, al di là del suo significato più importante di dialogo e di responsabi- lizzazione dei contendenti come premessa a una “giusti- zia riparativa”.
Il diverso e più ragionevole orientamento dell’Unione Europea per fortuna è fondato sull’entità e sulla gradua- lità del rischio insito nell’uso degli strumenti tecnologici più aggiornati, perfezionati e recenti. È un uso che deve garantire in primo luogo i principi di sicurezza, di traspa- renza, di tracciabilità, di non discriminazione e di rispetto dell’ambiente e dei diritti fondamentali della persona.
Per l’Unione Europea è inaccettabile e vietato – per il livello elevato e inammissibile del rischio – l’uso che incida su manipolazioni cognitive, su classificazione so- ciale della persona, su identificazione biometrica di essa (il riconoscimento facciale da remoto in tempo reale, ec- cezione fatta per talune deroghe).
Sono invece considerati ad alto rischio i sistemi che influiscono negativamente sulla sicurezza e sui dirit- ti fondamentali, con una distinzione fra i risultati che rientrano nelle direttive dell’Unione Europea sulla si- curezza dei prodotti e in quelli riconducibili a otto aree specifiche (fra cui l’identificazione biometrica, il lavoro, i servizi pubblici essenziali, la migrazione).
Infine residuano gli strumenti e i sistemi a rischio minimo per la consapevolezza dell’utente e per consen- tirgli una decisione informata sul loro uso. Resta ferma per l’intelligenza artificiale la necessità di assicurare tra-

sparenza dei suoi sistemi; quella di evidenziare l’origine da essa di questi ultimi; la necessità di impedirne un uso in operazioni illegali; quella infine di rispettare il dirit- to d’autore sulle fonti. In quest’ultimo aspetto si aprono nuove prospettive al rapporto tra l’uso dell’informazio- ne come prodotto e merce di scambio, che sottolineano una volta di più il prevalere di una logica di profitto.
Alla ragionevolezza e al buon senso sembrano ispi- rarsi altresì gli ammonimenti che la Federazione degli Ordini Forensi d’Europa e la Commission Européenne Pour l’Efficacité de la Justice (CEPEJ) hanno segnalato ai loro aderenti nel 2023 con riferimento alle linee-gui- da per l’utilizzazione responsabile di modelli linguistici di grandi dimensioni e per i loro rischi e vantaggi ne- gli strumenti di intelligenza artificiale generativa. Stru- menti che già ora sono accessibili nello sviluppo e nella trasformazione dei servizi legali e vengono offerti agli utenti.
Si tratta di linee-guida a carattere generale: la compren- sione della tecnologia dell’intelligenza artificiale; il ricono- scimento dei loro limiti e contesti; il rispetto delle regole esistenti per essa; la loro integrazione con le competenze legali; il segreto professionale; la privacy e la protezione dei dati personali; l’informazione dei clienti e le responsabilità. Quegli ammonimenti sono iniziative che sembra- no opportune nel contesto odierno di enfatizzazione dell’intelligenza artificiale: sia nei suoi aspetti positivi che in quelli negativi, soprattutto da parte delle imprese impegnate nella ricerca di sistemi sempre più complessi e articolati e in una logica di profitto, di “pubblicità”, di
concorrenza e di mercato ormai dominante.

Quella logica ancora una volta sottolinea l’urgenza e la necessità di una transizione tecnologica accanto a quella ecologica da cui ho preso le mosse per le riflessio- ni richiamate nelle pagine precedenti.

Giudice-persona versus giudice-robot
Una riflessione riassuntiva sul confronto tra giudice-per- sona e giudice-robot mi sembra doverosa alla luce dell’e- sperienza da me trascorsa nel mondo del diritto soprat- tutto come giudice prima delle persone e poi delle leggi.
La “digitalizzazione della giustizia” non è una novità con i suoi indiscutibili vantaggi, ben noti. Penso alla de- materializzazione della comunicazione e ai cambiamen- ti da essa indotti nel processo per automazione, sempli- ficazione e velocità certamente positive dopo l’effettiva digitalizzazione.
Al contrario è una novità che lascia molto perplessi la prospettiva futura e ultima di sostituire il giudice-perso- na con quello robot grazie all’impiego dell’intelligenza artificiale, invece di utilizzare quest’ultima come stru- mento di collaborazione con il primo, prezioso e proba- bilmente indispensabile.
Il giudice-robot, oltre al plus di rendimento e veloci- tà, dovrebbe offrire le stesse garanzie di quello umano; dovrebbe cogliere l’equilibrio necessario tra una leg- ge uguale per tutti e la sua applicazione a un fatto e in un contesto diverso per ciascuno; rendere una “giustizia esatta” più che una “perfetta in sé”.
Dovrebbe inoltre essere consapevole che la “dele- ga” alle macchine non è rinunzia alla partecipazione e alla “variante umana” delle decisioni; che il “richiamo”

ai precedenti e alla loro “imponenza” non può divenire condizionamento del gregge (il cosiddetto effetto mon- tone); e che la “dittatura del calcolo” non può essere l’u- nica chiave per affrontare i problemi e i limiti della vita. La Carta etica del CEPEJ richiama – per l’utilizzo dell’intelligenza artificiale – i principi del rispetto per i diritti fondamentali; della non discriminazione; della trasparenza, imparzialità ed equità; della qualità e della
sicurezza; del controllo.
Il valore della certezza in termini di “calcolabilità giu- ridica” è certamente positivo, ma non tiene conto ne- cessariamente del contesto e delle situazioni concrete “fuori campo”; presenta difficoltà per la garanzia del suo controllo effettivo. Quella certezza è costruita sul patri- monio del passato; non offre garanzie di percezione de- gli errori e dei bias presenti nella macchina in esito alla sua alimentazione e nel suo autoapprendimento.
Infine e soprattutto, quel modello di certezza e di ef- ficienza apre la via alla deresponsabilizzazione del giu- dice-persona: un prezzo che appare troppo elevato per accettare il primato del giudice-robot.
Queste riflessioni sono sviluppate sotto molteplici e approfonditi aspetti dalla più recente elaborazione ac- cademica. Essa è pressoché concorde in tema di intelli- genza artificiale e sua applicazione nel campo della giu- stizia; costituisce l’auspicio e il contributo migliore per superare l’alternativa radicale fra apocalittici e integrati e per affrontare finalmente al meglio e con qualche otti- mismo la nostra disastrata giustizia.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.