testo integrale con note e bibliografia

Il diritto, in quanto espressione della società civile, è sempre stato sensibile ai cambiamenti sociali. Il progresso scientifico inevitabilmente incide sulle modalità e sugli strumenti con cui i giudici amministrano giustizia e gli avvocati difendono i loro clienti nella sede giurisdizionale. Tuttavia, ciò che caratterizza la presente epoca è il fatto che il progresso tecnologico è estremamente rapido, ossia procede ad una velocità che non ha corrispondenti nel passato.
Accanto alla c.d. digitalizzazione del processo civile (processo civile telematico, notifiche telematiche, udienze da remoto) anche l’uso dei sistemi di intelligenza artificiale generativa – per tali intendendo quelli che si basano su modelli statistici che identificano e replicano schemi e relazioni nei dati che hanno appreso per poi generare output plausibili ( ) – è ormai una realtà all’interno del nostro sistema giurisdizionale civile. L’Italia è arrivata addirittura in ritardo, trattandosi di strumenti tecnologici già in uso da molti anni in altri ordinamenti, e non solo negli Stati Uniti, ma anche, ad esempio, in America latina ( ), e in alcuni paesi dell’Europa continentale (Francia, ma anche Estonia e Spagna ( ).
Il compito del giurista nel tempo attuale – sia egli un operatore pratico (magistrato, avvocato) ovvero un accademico – non è pertanto quello di alzare barricate contro una realtà che è già tale ma, piuttosto, è quello di apprendere a saper utilizzare tali strumenti, mitigandone i rischi in modo da mantenere intatta la fiducia dei cittadini nell’amministrazione della giustizia, proteggendoli da queste nuove vulnerabilità.
Le nuove vulnerabilità a cui ci riferiamo sono non soltanto l’analfabetismo digitale, che impedisce di beneficiare dei vantaggi offerti da tali sistemi ma anche c.d. vulnerabilità digitale, che tanto più è problematica quando sia relativa alla giustizia del lavoro, in cui sono contrapposte due parti, di cui una considerata debole e dunque bisognosa di maggiore protezione rispetto all’altra. Così, ad esempio occorre far comprendere al lavoratore che non abbia dimestichezza con le materie giuridiche, che l’intelligenza artificiale generativa disponibile gratuitamente o pagamento di una modica cifra sul web, non è in grado di risolvere i suoi problemi legali senza la necessità di un apporto umano, perché operando tali sistemi di IA su basi statistiche vi è il rischio di “allucinazioni” in quanto il risultato più probabile non sempre è quello corretto ( ). Dunque bisogna comunque rivolgersi ad un legale.
Occorre altresì far comprendere all’utente di tali servizi (nel nostro caso il lavoratore), che si deve essere cauti prima di mettere a disposizione di tali sistemi i propri dati sensibili ( ), in primis perché si tratta per lo più di applicazioni sviluppate da imprese private che non dichiarano o non rendono noto in quale Stato (spesso extraeuropeo) si trovano i loro repository.
Per questo, in Germania, una commissione di lavoro istituita ad hoc presso il Ministero della giustizia, ha proposto di creare una piattaforma digitale gestita dal Ministero tedesco con una chatbot che consenta gratuitamente al cittadino di verificare se dispone di tutti i dati per la proposizione del giudizio, nonché di fare una stima, quanto più vicina alla realtà possibile, degli ipotetici costi del processo (c.d. digitales -Vorab-Check- Verfahren)( )).
Per conseguire questi obiettivi, occorre aver ben chiari – oltre ai potenziali benefici ( )– anche quali sono i rischi e i pericoli che l’uso dell’intelligenza artificiale generativa comporta, specie quando si tratti dell’amministrazione della giustizia civile.
Occorre altresì che il giudice, l’avvocato, l’accademico e gli studenti dei corsi di laurea magistrale in giurisprudenza siano aperti all’apprendimento di nuove competenze ed abilità per far sì che il giurista di oggi possa adattarsi con maggiore facilità ai cambiamenti nell’ambiente professionale originali dal crescente uso dell’IA.
Con riferimento specifico al processo del lavoro, la situazione attuale è quella per cui non soltanto il mercato del lavoro (i.e. l’oggetto del contenzioso) sta cambiando (anche) per effetto della diffusione dell’intelligenza artificiale generativa, ma anche gli operatori giuridici di tale contenzioso (magistrati, avvocati, cancellieri) devono rivedere il loro modo di lavorare a causa della IA.
In particolare, cambia, necessariamente anche il modo di essere del rapporto tra giudici e avvocati. A questo specifico aspetto sono dedicate queste brevi pagine di riflessione.

2. Come l’IA generativa incide sul rapporto tra avvocati e giudice

Non vi è dubbio che l’IA generativa possa aiutare l’avvocato in una serie di attività propedeutiche all’instaurazione della causa e, dunque, alla instaurazione della sua relazione con il giudice.
Innanzitutto, l’IA generativa, attraverso una ricerca giuridica personalizzata focalizzata sull’ufficio giudiziario da adire e sulle circostanze di fatto concrete che hanno generato la controversia, può aiutare l’avvocato a quantificare la percentuale di successo (e i potenziali costi). Quest’ultimo è sicuramente un effetto benefico per il cliente, che disporrà così di un dato matematico che si aggiunge all’istinto e all’esperienza del proprio legale, aiutandolo con maggiore cognizione di causa a decidere se investire tempo e denaro nella controversia, specie quando tale percentuale sia inferiore o pari al 50 per cento. Si pensi soprattutto al lavoratore, che ha grande necessità di comprendere se “il gioco vale la candela”.
Tale effetto della IA generativa riguarda anche il giudice, benché quella appena descritta sia una attività propedeutica all’eventuale instaurazione del giudizio.
Innanzitutto, perché la disponibilità, per i potenziali attori, di questi dati statistici, dovrebbe aiutare a ridurre il contenzioso superfluo (o frivolo).
In secondo luogo, perché quando si fa riferimento ad una ricerca giuridica personalizzata e focalizzata sull’ufficio giudiziario avanti a cui dovrebbe essere proposta l’eventuale controversia sorge inevitabilmente il problema di evitare attività di profilazione dei giudici.
Ciò che le parti debbono poter calcolare è solo se e quante chances ha la causa di risultare vittoriosa avanti, ad esempio, al tribunale di Torino, sez. lavoro in considerazione degli orientamenti da quest’ultimo accolti a fronte di norme di legge che si prestano a diverse letture.
Non dovrebbe, invece, essere consentito calcolare se la causa ha più chances di vittoria se la decide il giudice Mario del tribunale di Torino, sez. Lavoro, piuttosto che la giudice Anna, appartenente al medesimo ufficio giudiziario.
Come già abbiamo avuto modo di segnalare in altra sede ( ), il problema, nel nostro ordinamento, non si pone per il giudizio di legittimità, posto che le decisioni della Cassazione vengono pubblicate con i nomi dei giudici anonimizzati, come si può notare consultando la banca dati pubblica (SentenzeWeb) presente nel sito web della Suprema Corte. Si pone, invece, per la banca dati di merito pubblica, in cui le decisioni vengono caricate con i nomi dei giudici in chiaro, e in una situazione in cui, a differenza di quanto accade in Francia, non vige neppure un divieto legislativo di riutilizzo dei dati messi a disposizione dalla banca dati di merito pubblica ( ).
Si noti, peraltro, che, in Francia, si ritiene addirittura che la normativa sul divieto di profilazione, pur sussistente, non sia sufficiente a risolvere il problema, i.e. a garantire la serenità di giudizio e la sicurezza del personale addetto alla giustizia, tant’ è che nel recente Rapporto informativo n° 216 (2024-2025) sull'intelligenza artificiale e le professioni legali ( ) si propone, pro futuro (ed in vista dell’inserimento nella banca dati pubblica anche delle decisioni penali a partire dal 31 dicembre 2025) di anonimizzare le decisioni disponibili in accesso aperto, in modo da non rendere visibili né i nomi dei magistrati né quello dei cancellieri.
Si tratta, dunque, di un aspetto, peraltro non coperto dall’europeo IA act, sul quale occorre sensibilizzare gli operatori del diritto e il legislatore, anche in vista dell’iter di approvazione del disegno di legge delega italiano sull’intelligenza artificiale ( ).

2.1. Segue: quali rischi per il principio di eguaglianza delle parti?

Quando l’esame delle chances di successo induce la parte ad optare per l’avvio del processo civile (incluso il processo del lavoro), l’IA generativa può svolgere una funzione di ausilio, per l’avvocato, in particolare sui seguenti fronti (aggiuntivi ed ulteriori rispetto alla già richiamata ricerca giurisprudenziale):

- Analisi e sintesi di documenti necessari per redigere il contenuto dell’atto introduttivo del giudizio ovvero della memoria difensiva;
- Redazione di un atto introduttivo del giudizio o di una memoria difensiva standardizzati;
- Proof reading degli atti giuridici in modo da migliorarne chiarezza e sinteticità;
- Rilevamento di potenziali vizi processuali dell’atto introduttivo del giudizio o della memoria difensiva (i.e. anomalie rispetto al modello standardizzato), così da ridurre i rischi di chiusura in rito del giudizio ( ).

L’IA generativa, dunque, se per un verso può aiutare a migliorare la qualità degli atti di parte (o per lo meno può aiutare a ridurre i tempi per il loro confezionamento), per altro verso, proprio per questo motivo, rischia di incrinare l’eguaglianza (di mezzi, i.e. sostanziale) tra le parti (e i rispettivi avvocati). Un software di IA generativa per migliorare la qualità degli atti giudiziari dell’avvocato, tanto più è sofisticato, quanto più è costoso. Il che però rischia di far sì che soltanto gli avvocati che lavorano in studi legali associati, i.e. in forma imprenditoriale, mentre l’avvocato che lavora in piccoli studi potrebbe non avere i mezzi sufficienti per accedere a tali risorse ( ).
Per tentare di ovviare al problema, oltralpe, il Consiglio dell’ordine degli avvocati di Parigi (Barreau de Paris) ha stipulato un accordo con la piattaforma di IA giuridica Doctrine che consente a 14.000 avvocati parigini di avere accesso a prezzo calmierato agli strumenti di IA giuridica ( ).
Anche in Italia sarebbe opportuno avviare una riflessione su questo aspetto, che non appare affatto di second’ordine.
Ancora: l’IA generativa, per poter essere utilizzata pienamente a vantaggio e non a scapito del proprio cliente, necessita di competenze specifiche che l’avvocato deve acquisire tramite aggiornamento professionale (formazione continua e reskilling). Occorre saper gestire il rischio di allucinazione ed errore dell’intelligenza artificiale generativa, in quanto operante su basi statistiche, e non già secondo schemi deduttivi. Doveri deontologici nei confronti dei clienti fanno si che l’avvocato debba comunicare al cliente se e in che modo ha fatto uso di IA generativa, i cui risultati debbono sempre essere supervisionati per scongiurare il rischio appena richiamato.
Allo scopo di regolare questi aspetti etici e professionali – e anche con una funzione auspicabilmente pedagogica che, ci si augura, costituisca ispirazione per altri e numerosi Consigli dell’ordine – nel dicembre 2024, l'Ordine degli Avvocati di Milano ha lanciato HOROS, la prima Carta dei Principi italiana in Italia per un uso consapevole dell'IA nel settore legale. La Carta, non a caso, è accompagnata da un progetto di alfabetizzazione digitale ( ). Tra i doveri etici previsti dalla Carta HOROS vi è quello di competenza dell’avvocato (principio 2), di trasparenza sull’uso dell’intelligenza artificiale (principio 3), di protezione dei dati e sicurezza informatica (principi 5 e 6), di formazione continua e reskilling (principio 9). É inoltre previsto un l’onere della preventiva valutazione dei rischi legati all’uso dell’IA (principio 7) e un divieto di discriminazione o compromissione dei dati sensibili, e, infine,
Manca, invece, al momento e a differenza di quanto accaduto in Francia, un’analoga carta etica siglata dalle imprese che svolgono in Italia attività di legaltech ( ).
Questo è un ulteriore e significativo aspetto su cui dovrebbe essere avviato, a livello governativo, almeno un tavolo di discussione e confronto.

2.2. Segue. IA generativa nel processo per una migliore amministrazione della giustizia

L’IA generativa ha ulteriori potenzialità – rispetto a quelle già fino ad oggi messe in campo – anche a beneficio di giudici e cancellieri. Dalla lettura del Rapporto informativo n° 216 (2024-2025) sull'intelligenza artificiale e le professioni legali recentemente presentato al Senato francese, ad esempio, si apprende della richiesta inviata al locale Ministero della Giustizia di sviluppare software interni di IA generativa in grado di trascrivere le dichiarazioni fatte durante le udienze, i.e. di verbalizzare automaticamente, se necessario, anche di tradurle ( ). Nell’ambito dei progetti Pon Giustizia, inoltre, l’università e il tribunale di Catania hanno elaborato un sistema informatico denominato “Agenda del giudice”, attraverso il quale il giudice, dopo aver definito, per ciascun fascicolo del suo ruolo, un livello di difficoltà presunto e la sua targatura, intesa come data dell’iscrizione a ruolo, può programmare l’udienza di precisazione delle conclusioni dei fascicoli pendenti, aggiornando la sua agenda al sopraggiungere di nuovi fascicoli ( ).
Il maggiore ausilio che le autorità giurisdizionali, e i loro UPP, possono trarre dalla IA generativa rimangono però legate alla fase decisionale. Fermo restando che la decisione del giudizio deve rimanere un’attività umana, alla IA generativa, in linea con quanto previsto dallo IA Act, si può chiedere una ricerca giurisprudenziale che individui i precedenti conformi o difformi e evidenzi contrasti giurisprudenziali, tra sezioni di un medesimo ufficio giudiziario di merito, ovvero della corte di cassazione.
Si può altresì chiedere alla IA generativa di ricostruire l'andamento del processo e della materia del contendere, nonché i fatti, attraverso il confronto delle tesi delle parti (software capaci di attingere e comparare tra di loro le ricostruzioni in fatto di cui agli atti di parte erano stati elaborati dalle università nell’ambito del progetto Pon Giustizia, ad esempio dalla Macroarea 1- Italia nord ovest ( )); di individuare le norme applicabili ai fatti come ricostruiti, previa verifica delle tesi sostenute dalle parti sul punto. Infine, si può chiedere al software di svolgere attività di proofreading, ossia di rivedere il testo del provvedimento conclusivo, affinché il linguaggio utilizzato sia il più chiaro e sintetico possibile.
Insomma, una sinergia con la IA generativa e con le altre discipline ( ) può aiutare l’operatore del diritto ad offrire al cittadino un sistema di giustizia civile migliore dal punto di vista di effettività della tutela e di efficienza.

3. Postilla. Un possibile ambito di sperimentazione dell’IA

In calce a queste brevi riflessioni in merito a come l’IA sta incidendo e inciderà sui rapporti tra avvocato e giudice sia consentita una postilla che si riferisce, più in generale, all’apporto che il giudice e l’IA possono congiuntamente dare per rendere più effettiva la tutela giurisdizionale.
Un possibile ambito di sperimentazione benefico della IA generativa finalizzato a ridurre i tempi necessari per la esecuzione della sentenza di condanna, specie quando si tratti di provvedimento a favore del lavoratore è stato segnalato, da uno studio francese, già nel novembre 2017 ( ) e in questa sede ci permettiamo di riproporlo: lo studio, dopo aver osservato come lo smart contract (che ha sempre maggiore diffusione) sia autoesecutivo (si suole dire, infatti, che smart contract significa smart enforcement), e non faccia pertanto sorgere la necessità di ricorrere alla tutela esecutiva in caso di inadempimento di una delle parti, suggerisce di affiancare alla categoria dello smart contract (che, come tale, è un meccanismo di cui – in teoria – si potrebbe usufruire, ad esempio, anche all’interno del verbale di conciliazione ai sensi dell’art. 411 c.p.c.) quella dello smart jugement.
Poiché gli smart contract si basano sull’accordo negoziale delle parti, volendo costruire una parallela categoria di smart jugement, dunque, almeno quando si tratti di pronunciare un’ordinanza per il pagamento di somme non contestate di cui all’art. 423 c.p.c., con la cooperazione degli avvocati delle parti, ci si potrebbe forse già ora spingere a richiedere che il pagamento, con il consenso delle parti, venga effettuato con le medesime forme self-executing che rendono superflua l’esecuzione forzata, sgravando il creditore dai relativi costi.
Ma il citato studio francese si spinge addirittura oltre le situazioni di accordo giudiziale tra le parti, suggerendo che il giudice possa disporre che il pagamento di quanto previsto dalla sentenza di condanna debba avvenire, in tutto o in parte, attraverso tali sistemi self-executing, che fanno guadagnare tempo e risparmiare le spese di esecuzione al creditore; dati, ambedue, estremamente rilevanti, in specie quando il debitore sia il lavoratore.
Siamo consapevoli che quest’ultima fattispecie, stride con il divieto di autotutela che caratterizza il sistema di tutela giurisdizionale civile. I sistemi di IA danno, in questo caso, più di quanto possa dare il diritto processuale civile ( ) e, si noti, soprattutto quando il debitore sia il lavoratore, senza i meccanismi di protezione (beni impignorabili, limiti al pignoramento di crediti) previsti dal processo esecutivo.
Per cui, de jure condito, e senza una apposita previsione legislativa che la preveda (nemmeno all’interno del ddl sull’intelligenza artificiale), queste riflessioni ambiscono solo ad essere una provocazione da parte dell’accademico, che tuttavia reputiamo utile affinché si apra un dibattito su questi temi – che già sussiste in Francia, Germania e Spagna ( ), almeno a livello accademico – e si cominci a valutare questa possibilità offerta dalla tecnologia per rendere effettiva, meno lenta e meno costosa la tutela giurisdizionale, senza che vi sia la necessità di utilizzare il processo esecutivo (almeno quando si tratti di decisioni di condanna al pagamento di somme di denaro).

Cv dell’autrice reperibile al seguente link: https://www.giurisprudenza.unito.it/do/docenti.pl/Alias?elena.dalessandro#tab-profilo

Abstract: L'intelligenza artificiale generativa sta trasformando il processo civile, inclusa la giustizia del lavoro, incidendo sul rapporto tra avvocati e giudici. Il saggio esamina tale impatto, evidenziandone gli aspetti positivi e i relativi rischi (ad esempio in relazione al principio di eguaglianza tra le parti). Il lavoro guarda con soddisfazione alle carte etiche emanate in Italia e Francia e invita alla discussione circa la possibilità di introdurre una figura di “smart judgment” per rendere più rapida ed efficiente l’esecuzione delle sentenze, specialmente a favore dei lavoratori.

.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.