TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA

La c.d. giustizia predittiva costituisce l’approdo o, meglio, la prospettiva più avanzata di un più ampio processo di digitalizzazione e di efficientamento del sistema-giustizia.
Invero, l’espressione “giustizia predittiva” può in generale riferirsi a modalità eterogenee di impiego dell’intelligenza artificiale nel processo, potenzialmente in grado di spaziare dalle fasi preliminari all’instaurazione della lite sino al momento di definizione di quest’ultima.
In questo senso, si operata in letteratura la distinzione tra una “giustizia predittiva in senso lato”, che mira all’individuazione, attraverso strumenti di data research analysis, dei precedenti giudiziari in grado di prae-dicere l’esito di una controversia non ancora avviata o comunque non decisa, e una “giustizia predittiva in senso stretto”, che, collocandosi all’interno del procedimento decisionale, ha a che vedere in realtà più con lo jus dicere che con lo jus prae-dicere.
Ed anche in questo secondo, più delicato, ambito si è ulteriormente tenuta separata una tecnologia di supporto/ausilio del giudice ed una dello stesso sostitutiva (in altri termini, si è parlato, nel primo senso, di un algoritmo predittore e, nel secondo senso, di un algoritmo decisore).
Se il c.d. robot-judge (ossia sostituto del Giudice) appare una sostanziale chimera, essendo il ricorso ad un simile strumento precluso da una lunga serie di principi costituzionali nonché, da ultimo, dallo stesso Regolamento Ue 2024/1689 (c.d. AI Act), anche l’alternativa dell’AI quale mero ausiliario del giudice (una sorta di robot-clerk o assistente virtuale) non risulta del tutto scevra da rischi, a partire dal possibile appiattimento del Giudice-persona fisica ai suggerimenti dell’algoritmo.
Parlare di giustizia predittiva, allo stato, non implica perciò la questione della sostituzione del giudicante/umano con un robot, ma interrogarsi sulla c.d. legalità algocratica, cioè sulla normatività delle tecnologie, quale fonte alternativa di normatività giuridica, ovvero riflettere sull’impatto della normatività algoritmica - tramite artefatti e vincoli tecnici iscritti nel programma informatico come ponti attraverso cui è obbligatorio passare in termini di regola scritta in codice binario che consente o vieta o, anche solo induce/inibisce un certo comportamento - che sostituiscono al legittimo e al giuridicamente lecito ciò che è semplicemente possibile perché consentito dal programma stesso e sull’emersione di predizioni retroattive che anticipano l’umano agire, condizionandolo, senza alcuna adesione cosciente.
L’imperativo è, dunque, garantire che il giudice umano non dismetta la propria umanità per iniziare a ragionare ed agire in modo simile ad una macchina in un ambiente conformato e condizionato dall’AI, mercé la digitalizzazione della giustizia che lo renderebbe un ingranaggio perso nel meccanismo invisibile della logica binaria.
Non per nulla, l’AI Act ha collocato i software di giustizia predittiva tra gli strumenti ad alto rischio, per l’effetto assoggettandoli all’ampia mole di adempimenti ivi contemplati agli artt. 6 e seguenti, a partire dal fondamentale obbligo di sorveglianza umana (human oversight) fissato all’art. 14 (ma v. anche l’obbligo di Fundamental Rights Impact Assessment – FRIA ex art. 27 AI Act).
Lo stesso legislatore europeo (cfr. anche, in ambito nazionale, l’art. 14 del d.d.l. n. 1146 della XIX legislatura, in discussione al Senato) ha messo in evidenza, oltre ai rischi, anche le opportunità di un impiego prudente, limitato e supervisionato dell’AI nel processo, da un lato, in funzione di ausilio nell'interpretazione e nella ricerca dei precedenti o anche della ricerca normativa, dall’altro lato, nelle cosiddette attività accessorie, come l'anonimizzazione delle decisioni o le comunicazioni dei provvedimenti (ossia, verrebbe da dire, per le attività di cancelleria…virtuale), rispetto alle quali il ricorso alla tecnologia non viene considerato, come nel primo caso, ad “alto rischio”, bensì a “rischio ridotto”.
La carta vincente è un’interazione uomo-macchina consapevole (sin dal primo momento della programmazione), vigilata e mite ovvero un giurista consapevole fact-checker rispetto alle indicazioni dei LLM.
A fronte di tali, rapidissime evoluzioni (sul piano tecnologico, prima che normativo), si è quindi pensato, d’intesa con la Direzione della Rivista, di promuovere un Forum – idealmente articolato in due “puntate” – sul possibile ruolo dell’intelligenza artificiale nel sistema della giustizia, con uno sguardo proiettato sul processo del lavoro, che vede naturalmente implicati valori e diritti di rango primario.
Si è quindi chiamato interlocutrici e interlocutorio qualificati (magistrati/e, professori/professoresse, avvocati/e) a prendere posizione attorno ad una serie di nuclei problematici afferenti, direttamente o indirettamente, al tema in discussione. Per comodità, si è fornita ad interventori ed interventrici la seguente serie di quesiti, lasciando ovviamente a ciascuna e ciascuno la facoltà di insistere su uno o più di tali profili o, ancora, di indirizzarsi verso ulteriori problematiche afferenti alla giustizia predittiva, del lavoro e non solo:
1. In generale, ritiene che l’impiego della tecnologia nel processo del lavoro costituisca un veicolo di progresso ed efficienza o che il ricorso all’AI possa comportare più rischi che benefici?
2. A Suo avviso, è davvero possibile prevedere realmente l’esito di una controversia (lavoristica e non)? Vi è differenza, in questo senso, tra i sistemi di common law e quelli di civil law?
3. Se il modello del giudice-robot (sostitutivo del giudice\persona fisica) è stato accantonato, probabilmente definitivamente, dall’AI Act (https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=OJ:L_202401689), condivide la scelta del Regolamento europeo di collocare anche i software di ausilio dell’attività giudiziaria tra i sistemi ad alto rischio? Quale ruolo potrebbe\dovrebbe avere la normativa nazionale? Quali sono le principali questioni in materia di governance che si pongono, con specifico riferimento al settore giustizia? Quali sono le preoccupazioni che in Lei suscitano tali strumentazioni?
4. Come dovrebbe modificarsi la dialettica processuale nel rapporto tra giudice e avvocati in presenza di utilizzo di sistemi di AI?
5. Quali sono gli ambiti privilegiati entro i quali e non oltre i quali, a Suo avviso, è possibile avviare sperimentazioni mirate?
6. Quale può\deve essere il ruolo dei giuristi – quali esperti – nel rapporto con i programmatori?
7. In definitiva, in che modo è possibile garantire che la decisione rimanga un'attività e una prerogativa "intrinsecamente umana"?

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.