testo integrale con note e bibliografia

1. Tecnologia e processo

La tecnologia da sempre aiuta a fare meglio le cose che già sappiamo fare e a realizzare cose che, in sua assenza, non saremmo in grado di fare: osservazione banale, ma che, secondo me, serve a centrare la questione. La tecnologia deve essere utile; altrimenti, è sciocco utilizzarla. Ciò che occorre è trovare modi intelligenti per sfruttare le doti che il computer ha rispetto a noi.
Ad esempio, non ha senso addestrare una macchina a riconoscere l’attendibilità di un testimone, poiché i fattori su cui si basa tale valutazione sono talmente tanti che sarebbe persino difficile categorizzarli e gli stessi sono percepibili sia tramite la vista, sia tramite l’udito: contraddittorietà intrinseca o estrinseca, coerenza con altri dati processuali, situazione personale del teste, utilizzo di certi modi di linguaggio anche non verbale, ecc. Per ottenere un risultato simile a quello umano, la macchina dovrebbe essere addestrata a valutare un insieme di fattori il cui peso è dubbio e variabile, oltre ad usare dati non solo testuali, ma anche visivi.
Al contrario, una macchina è in grado di analizzare un numero vastissimo di documenti per verificare alcune tesi: ad esempio, controllare se vi è coerenza con gli importi pagati a titolo di trasferta a un numero elevato di lavoratori e le trasferte effettive, al fine di verificare se vi sia stata elusione contributiva.
Di conseguenza, l’utilizzo della IA in tali secondi ambiti è sicuramente utile e funzionale, mentre nei primi casi si risolverebbe, probabilmente, in un dispendio di energie eccessivo per un risultato che potrebbe, ragionevolmente, non raggiungere il livello umano.
L’IA comporta dei rischi come ogni strumento: il rischio più elevato che riscontro è quello di impigrire l’utilizzatore, che potrebbe adagiarsi sui risultati ottenuti senza effettuare una verifica dell’attendibilità degli stessi; ma, d’altronde, anche usare un foglio excel può portare a calcoli errati, se le formule sono state mal scritte; oppure, a chi non è capitato di redigere documenti con evidenti errori a causa di un mal gestito “copia e incolla”?
Il vero rischio dell’uso dell’IA, a mio parere, è la diffusione dei dati inseriti: allo stato, non ci sono garanzie in merito a dove questi dati confluiscano, né sul se e come vengano utilizzati dal gestore del sistema di Intelligenza Artificiale.
Al fine di evitare questo problema, occorrerebbe un sistema di IA che permettesse di gestire perfettamente la base di conoscenza: ossia, che lasciasse inserire i dati che si vogliono utilizzare per poi poterli eliminare, senza che gli stessi vengano diffusi.

2. Prevedibilità delle decisioni e efficacia dei sistemi di giustizia predittiva

Quando si parla di giustizia predittiva, non può che tornare alla mente Minority Report, in particolare il dialogo tra Tom Cruise, agente della c.d. pre-crimine, e Colin Farrel, scettico sul suo utilizzo.
Giusto per riepilogare e sintetizzare, nel film (tratto da un racconto del “solito” Philip K. Dick), si immagina che, grazie ad un trio di veggenti, diventa possibile prevedere, con certezza, la commissione di un crimine violento: in tal modo, un corpo di polizia apposito (la pre-crimine, per l’appunto), interviene, impedendo il delitto e arrestando il futuro criminale.
Ovviamente, poiché il delitto viene fermato prima ancora del tentativo, si pone il dilemma: come condannare qualcuno per qualcosa che non ha (ancora) commesso?
Nel dialogo tra gli attori, Colin Farrell espone questa obiezione; mentre parla, Tom Cruise lascia correre una sferetta di legno su un piano e Farrell l’afferra prima che cada. Al che Cruise gli chiede: “Perché l’ha afferrata?”
“Perché sarebbe caduta”, risponde Farrell.
“Ma non è caduta”, obietta Cruise.
Tutto l’impianto narrativo ruota intorno al livello di certezza della previsione (spoiler alert: alla fine, si scopre che le previsioni non sono perfette). Ebbene, possiamo essere certi che nelle nostre cause la prevedibilità sia invece possibile? E con che grado di certezza?
A parere di chi scrive, le cause con evidenti profili di fatto rientrano nella sfera dell’imponderabile. Ogni attore della scena processuale, che sia giudice o avvocato, sa bene che spesso la realtà supera la fantasia e che ogni istruttoria orale ha esiti assolutamente incerti: vuoi perché accade che i fatti siano diversi da come ce li siamo immaginati, vuoi perché i testimoni ci raccontano storie assurde che rendono sostanzialmente impossibile una ricostruzione accurata della vicenda.
Per ciò che riguarda gli aspetti di diritto, invece, la prevedibilità è invece molto più solida: anzi, tutto il sistema dello studio dei precedenti è mirato alla prevedibilità degli esiti di un giudizio in cui si discuta di profili di mero diritto.
Sotto tale aspetto, l’IA è utilizzabile per fare più in fretta e, sotto alcuni profili, meglio rispetto alla normale ricerca giurisprudenziale che ogni avvocato e giudice svolgono prima di affrontare o decidere una causa.
Il grado di prevedibilità della decisione non è, ovviamente, assoluto, in quanto dipende da diversi parametri: solidità e uniformità della giurisprudenza pregressa, conformità dei casi esaminati rispetto a qyello di specie, serialità del giudizio, ma anche da fattori totalmente imprevedibili, come la scelta del magistrato di innovare rispetto al passato. In realtà, anche tali parametri potrebbero essere valutati da un sistema di IA, inserendo nell’algoritmo un “peso” diverso del fattore da esaminare.
Sicuramente i sistemi di common law, per la loro struttura basata sulla vincolatività del precedente, sembrano più soggetti alla prevedibilità delle decisioni; ma la difformità dei due ordinamenti è spesso più apparente che reale, in quanto anche nei sistemi di civil law molte decisioni, soprattutto laddove riguardino statuizioni di diritto, richiamano i precedenti della Corte di Cassazione.
D’altronde, se da un alto la prevedibilità della decisione può avere degli evidenti risvolti positivi, quali la certezza del diritto e la conseguente deflazione del contenzioso, dall’altro non è un valore assoluto e l’innovazione degli orientamenti giurisprudenziali, com’è noto, è il modo per la giustizia di stare al passo con i tempi e le mutate sensibilità: si pensi, ad esempio, al mutamento di paradigma per quanto riguarda la tutela contro le discriminazioni, soprattutto in tema di superamento del periodo di comporto.

3. Giustizia e sistemi IA ad alto rischio

La scelta del legislatore europeo di mantenere umana la decisione è comprensibile, ma timida. Forse sarebbe persino stato ipotizzabile un sistema di giustizia predittiva, aperto a tutti, in modo da permettere al cittadino di interrogarlo per sapere quale sia l’orientamento della giurisprudenza su una determinata questione.
Tornando alla realtà, si deve condividere la classificazione dei sistemi di IA di supporto alla giustizia come sistemi ad alto rischio: infatti, la decisione è un processo complesso che non si esaurisce nella mistica solitudine della camera di consiglio, ma che dipende dall’esame degli atti, documenti, precedenti giurisprudenziali e quant’altro. Se l’IA incide sul risultato di queste operazioni preliminari alla decisione vera e propria, deve necessariamente essere circondata di opportune cautele.
Più che una normativa a livello nazionale, occorrerebbe che il Ministero introducesse un proprio sistema di IA o che, quantomeno, adattasse un sistema già in uso al processo.
Mi permetto di (e mi limito a) esprimere il punto di vista del magistrato, che potrebbe essere considerato deployer laddove usasse, a fini professionali, sistemi di IA; per l’avvocato è ovviamente diverso, in quanto l’atto che redige è comunque l’atto di un privato e il professionista, per quanto svolga un ruolo di grande rilevanza nel processo, non è un’autorità giurisdizionale.
È inutile pensare di poter usare, a fini istituzionali, motori quali ChatGPT, Gemini o simili, in quanto sono strumenti a finalità generale e presentano diversi problemi. In primo luogo, non sono nati e finalizzati al diritto: è necessario un addestramento al linguaggio tecnico e al contesto in cui operiamo. In secondo luogo, non danno sufficiente garanzia in merito alla sicurezza dei dati, come detto in precedenza.
Se non si vuole che ogni giudice vada in ordine sparso, usando alla bell’e meglio il sistema di IA che ha imparato in qualche modo a gestire, sarebbe necessario l’intervento del Ministero che fornisca il sistema di IA, garantisca sulla sua affidabilità e istruisca i magistrati al loro utilizzo.
Un aspetto, infatti, spesso trascurato è proprio quello della formazione all’uso dei sistemi di IA: è vero che l’interfaccia di questi sistemi è il più possibile semplificata, proprio per essere user friendly, ma è altrettanto indubitabile che, se non si vuole rimanere a livello dilettantistico, occorre curare e sviluppare la capacità dell’utente, anche in merito alla scelta e utilizzo dei vari strumenti.

4. IA: un terzo incomodo?

L’IA è e deve rimanere uno strumento; eviterei di incorrere in personificazioni di sistemi informatici.
Non credo che vi debba essere una modifica della dialettica processuale ed anzi non saprei bene individuare in che ipotesi ciò possa accadere. L’unico scenario, patologico, sarebbe quello nel quale il giudice filtrasse tutti gli atti e le istanze degli avvocati tramite un sistema di IA di sintesi; ma, così facendo, sostituirebbe il proprio lavoro con le funzionalità della IA, in violazione sia dei propri doveri professionali, sia dei principi stabiliti dallo AI – Act.

5. Ambiti di sperimentazione

Non è semplice individuare un ambito privilegiato per la sperimentazione: anzi, non credo vi siano aree in cui la questa possa essere esclusa. Più che altro, vi sono alcuni spazi in cui è più agevole, ma opterei per un approccio trasversale, ossia per una sperimentazione il più possibile “a tutto tondo”.
Per precisare meglio questo punto di vista, premetto che l’IA può suddividersi, senza pretesa di categorizzazione ufficiale, in sintetica, analitica, generativa, predittiva.
Nella prima categoria si può collocare l’utilizzo della IA per sintetizzare deposizioni testimoniali o svolgere ricerche giurisprudenziali. È evidente che questo ambito di sperimentazione è accessibile sostanzialmente a ogni operatore del diritto, proprio perché il risultato è facilmente controllabile: il sistema di IA potrebbe quindi essere agevolmente addestrato, anche tramite la messa a disposizione di numerosi dati su cui lavorare.
Nella seconda, si può collocare l’utilizzo della IA finalizzato ad estrarre da un numero rilevante di documenti i dati che servono all’operatore: si pensi all’esempio già fatto in precedenza sull’esame di numerose buste paga al fine di individuare il pagamento di indennità di trasferta in modo continuativo e privo di giustificazione; oppure, nei Tribunali in cui il carico di arretrato è particolarmente cospicuo, per organizzare i fascicoli, individuando quelli in cui vi sono le medesime parti o questioni analoghe. Tale ambito è forse più interessante del primo, anche se la sperimentazione implicherebbe, sostanzialmente, all’operatore che segue la sperimentazione svolgere nuovamente il lavoro affidato alla IA per controllarne i risultati, con notevole dispendio di tempo e fatica; questo, quantomeno finché non si ottengano risultati attendibili per un numero di volte sufficiente a garantire all’affidabilità del sistema.
La IA generativa rappresenta, probabilmente, l’ambito più controverso, in quanto è quello dove il giudice sente di abdicare alla propria funzione, laddove permetta che la sentenza sia scritta da un sistema di intelligenza artificiale. Personalmente, non sarei contrario a sperimentare anche tale aspetto, in quanto mi sembra poco differente rispetto all’affidare la redazione di una bozza a un collaboratore o a uno stagista. L’importante, in tutti i casi, è il controllo del giudice sul risultato finale, che deve essere in ogni caso riconducibile a lui.
Infine, la sperimentazione dell’IA predittiva è qualcosa che non può essere affidato al singolo operatore, ma che deve essere guidata a uno staff addetto per selezionare i casi da sottoporre alla IA e la base di conoscenza. Una simile sperimentazione, lunga, difficile e costosa, ha senso nel momento in cui si decida di fornire un servizio di IA predittiva generalizzato.

6. Giudici e informatici – un rapporto complesso

Gli operatori del diritto sono spesso propensi a vedere gli informatici come lo stregone del villaggio che prende il loro PC e lo fa, misteriosamente, funzionare (a meno che dica, utilizzando termini da iniziati, che non è possibile risolvere il problema).
L’IA ha, come importante caratteristica, quella di cercare di superare il problema del necessario utilizzo di un linguaggio informatico per collegarsi con la macchina, permettendo all’utente di ricorrere al linguaggio comune.
Questa, però, è solo apparenza, in quanto i sistemi di IA sono programmi molto complessi che possono essere modificati solo attraverso un uso sapiente e competente delle nozioni informatiche.
Il rapporto giurista – informatico deve essere circolare: il giurista deve spiegare esattamente che tipo di output vuole ottenere e da che dati intende partire; l’informatico deve cercare di capire se la richiesta sia possibile e, in caso di risposta affermativa, realizzare lo strumento idoneo. A questo punto il giurista deve dedicare tempo a esaminare il risultato, verificando il tipo di risposta che la macchina fornisce e la congruità con le proprie richieste. Nel (probabile) caso in cui l’output non sia ancora soddisfacente, il circolo ricomincia, ogni volta andando a precisare le richieste e a perfezionare il risultato.
Un problema molto sentito dagli informatici è quello di cercare di classificare la bontà del risultato in termini di affidabilità rispetto alle attese. In certi casi può essere semplice e corrispondere a misurazioni matematiche: ad esempio, è possibile valutare l’affidabilità di una trascrizione o di una traduzione di un testo in misura percentuale, indicando quante parole sono trascritte o tradotte correttamente ogni cento. È invece decisamente più complesso stabilire, ad esempio, quando una sintesi sia soddisfacente. Proprio in questi casi, è necessario che il giurista cerchi di specificare quali dati debbano essere valorizzati nella risposta del sistema di IA, in modo che l’informatico possa cercare di tarare il sistema per soddisfare la richiesta.

7. L’umanità della decisione

Alla domanda “come fare in modo che la decisione resti un’attività umana?”, la risposta provocatoria potrebbe essere “non facendo nulla”: la giustizia continuerebbe a rimanere un’attività a conduzione interamente umana.
Più seriamente, non ritengo che vi sia un effettivo rischio per il quale la decisione sia lasciata agli algoritmi della IA, quantomeno nel breve – medio periodo, per le seguenti ragioni.
In primo luogo, i sistemi di IA, per quanto evoluti, non sono ancora così raffinati da permettere la sostituzione della decisione umana con quella automatizzata. Le variabili, di diritto e soprattutto di fatto (si pensi al profilo, già ricordato, della valutazione sulla attendibilità dei testimoni), sono così molteplici da impedirlo.
Inoltre, in un sistema in cui non vi è una gerarchia delle fonti di prova (a parte quelle rare con valore legale), riprodurre in termini algoritmici il libero convincimento del giudice è sicuramente arduo dal punto di vista tecnico, prima ancora che difficilmente accettabile da un punto di vista sociale.
In secondo luogo, vi è una forte resistenza culturale e una malcelata diffidenza nei confronti dell’Intelligenza Artificiale, giustificate o meno che siano. Nessuna delle parti coinvolte nel processo sono favorevoli al “giudice robot”: i cittadini non accetterebbero che il loro destino sia deciso da una macchina, gli avvocati non tollererebbero di vedere la loro professionalità sminuita, se non annullata, dall’impossibilità di influenzare un algoritmo e i giudici non sarebbero disposti a abdicare al proprio ruolo.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.