testo integrale con note e bibliografia
1. La tecnologia nel processo civile: dal PCT all’intelligenza artificiale?
La tecnologia ha già da tempo dimostrato di poter incidere in maniera significativa sul miglioramento dell’efficienza del lavoro giudiziario.
Il processo civile ha cambiato volto con l’introduzione del processo telematico, innovazione che ha avuto un impatto dirompente sulla vita professionale degli operatori del diritto e sulle dinamiche dello stesso processo, tradizionalmente legate agli incomodi logistici e burocratici connessi alla necessità di gestire materiale cartaceo.
La sperimentazione è stata lunga e costellata di difficoltà tecniche ed organizzative e c’è stata diffidenza da parte degli operatori, come spesso accade di fronte alle novità che stravolgono procedure ormai acquisite.
Tuttavia, una volta appresi e dominati gli strumenti del PCT, magistrati e avvocati ne hanno compreso gli innegabili vantaggi: gli atti sono totalmente dematerializzati, non è più necessario recarsi in un luogo fisico per effettuare depositi o per estrarre copie, il fascicolo è consultabile da remoto in maniera agevole e sicura.
Anche il personale di cancelleria ha visto cambiare il proprio lavoro in maniera radicale, focalizzando il proprio operato sulle procedure telematiche di lavorazione degli atti in ingresso e in uscita e limitando il rapporto con il pubblico a sporadiche ipotesi di gestione di situazioni particolari.
Trascorsi ormai più di dieci anni dal giugno 2014, data nella quale è stato introdotto l'obbligo di deposito telematico di alcune tipologie di atti di causa su tutto il territorio nazionale, possiamo dire che il PCT è ormai una realtà consolidata.
La dematerializzazione del processo non si è estesa, ovviamente, ai soggetti stessi del processo, né si è mai pensato di farlo: il processo è diventato telematico ma è rimasto a guida integralmente umana, sicché si può dire che nulla è cambiato, se non la forma degli atti e gli strumenti utilizzati.
Ulteriore (e positiva) evoluzione in termini di innovazione è avvenuta per effetto della normativa emergenziale emanata nel corso della nota pandemia da Covid-19 .
Come è noto, al fine di consentire la prosecuzione dell’attività giudiziaria in costanza delle note restrizioni alle attività in presenza sono state introdotte due nuove modalità di gestione dell’udienza, ossia la c.d. trattazione scritta e l’udienza mediante strumenti audiovisivi a distanza (c.d. udienza da remoto).
Anche in questo caso, una volta dominati gli strumenti e acquisita familiarità con le nuove procedure, le innovazioni sono state interiorizzate dagli operatori, che hanno iniziato a farne un uso regolare anche all’indomani della cessazione delle esigenze di prevenzione connesse alla normativa emergenziale.
Da ultimo il d.lgs. 10 ottobre 2022, n. 149 (c.d. riforma Cartabia), valorizzando i benefici apportati dagli strumenti sopra indicati e in un’ottica di ulteriore implementazione della digitalizzazione del processo , ha istituzionalizzato tanto la trattazione scritta, quanto l’udienza da remoto, con l’introduzione di due nuovi articoli (l’art. 127-bis c.p.c. e l’art. 127-ter c.p.c.) in un Codice di procedura civile sempre più “telematico”.
L’udienza da remoto, a parere di chi scrive, costituisce un utilissimo strumento di gestione del processo e una vera rivoluzione nelle modalità di gestione dell’udienza, seppure da utilizzare in aggiunta alla tradizionale udienza in presenza.
Nel processo del lavoro l’interazione personale dei soggetti del processo nel contesto dell’udienza è, infatti, essenziale.
Un numero rilevantissimo di cause viene quotidianamente definito per effetto di tentativi di conciliazione svolti con successo sia alla prima udienza, che nel corso del giudizio.
Il contatto “umano” è a tal fine essenziale e il giudice deve “esserci”, per aiutare le parti a vincere eventuali ritrosie a valutare soluzioni conciliative ovvero per aiutarle ad elaborare una soluzione condivisa.
Nella gestione del tentativo di conciliazione, laddove le parti non si accordino alla prima udienza, la prospettazione della possibilità di tenere un’udienza di prosecuzione a breve, anche da remoto, costituisce un efficace incentivo ad approfondire le soluzioni conciliative emerse e a portare a termine le trattative in un lasso di tempo congruo con l’interesse primario alla definizione della controversia nella fase introduttiva.
In quest’ottica l’udienza da remoto risulta utile anche al fine di superare eventuali difficoltà logistiche delle parti, che possono, quindi, presenziare all’udienza fissata per l’eventuale conciliazione anche se impossibilitate, in ipotesi, a comparire fisicamente per il giorno prefissato.
Che si tratti di udienze in presenza o di udienze da remoto e pur nel contesto della dematerializzazione del PCT, il fattore umano è comunque sempre preminente ed opera ancora in maniera del tutto tradizionale.
2. La centralità del fattore umano
La riflessione sull’uso delle nuove tecnologie nel settore della giustizia ha avuto ed ha, anche oggi, ad oggetto non solo la necessità di far fronte alla crescente domanda di giustizia mediante strumenti più agili e in grado di sveltire le procedure, ma anche la necessità di assicurare l’uniforme interpretazione della legge e la prevedibilità delle decisioni, dotando gli operatori di strumenti di elaborazione dati sempre più potenti.
Il fine ultimo è quello di garantire il corretto funzionamento dell’economia di mercato e dei rapporti tra imprese e cittadini e tra questi e lo Stato.
E’ l’intelligenza artificiale ad essere oggi nel mirino di scienziati ed operatori del diritto proprio al fine di conseguire il risultato più ambizioso, ossia la certezza del diritto e la prevedibilità delle decisioni .
Nel portale istituzionale del Parlamento Europeo si legge che l’intelligenza artificiale “è il presente e il futuro della tecnologia”, “è centrale per la trasformazione digitale della società ed è diventata una delle priorità dell’UE” .
Sempre nel medesimo portale troviamo una definizione “user friendly” di intelligenza artificiale, descritta come “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività.
L’intelligenza artificiale permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico. Il computer riceve i dati (già preparati o raccolti tramite sensori, come una videocamera), li processa e risponde.
I sistemi di IA sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia”.
Al considerando n. 12 del Regolamento UE 2024/1689 del 13 giugno 2024 del Parlamento Europeo e del Consiglio, che “stabilisce regole armonizzate sull’intelligenza artificiale” (c.d. AI Act), si legge che “la definizione [di “sistema di IA”] dovrebbe essere basata sulle principali caratteristiche dei sistemi di IA, che la distinguono dai tradizionali sistemi software o dagli approcci di programmazione più semplici, e non dovrebbe riguardare i sistemi basati sulle regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico. Una caratteristica fondamentale dei sistemi di IA è la loro capacità inferenziale. Tale capacità inferenziale si riferisce al processo di ottenimento degli output, quali previsioni, contenuti, raccomandazioni o decisioni, che possono influenzare gli ambienti fisici e virtuali e alla capacità dei sistemi di IA di ricavare modelli o algoritmi, o entrambi, da input o dati. Le tecniche che consentono l'inferenza nella costruzione di un sistema di IA comprendono approcci di apprendimento automatico che imparano dai dati come conseguire determinati obiettivi e approcci basati sulla logica e sulla conoscenza che traggono inferenze dalla conoscenza codificata o dalla rappresentazione simbolica del compito da risolvere. La capacità inferenziale di un sistema di IA trascende l'elaborazione di base dei dati consentendo l'apprendimento, il ragionamento o la modellizzazione.”
Al di là degli studi teorici, sono in corso, anche in Italia, varie sperimentazioni aventi ad oggetto l’uso dell’intelligenza artificiale nella gestione del processo , principalmente in funzione ausiliaria e in un’ottica predittiva.
La letteratura ormai copiosa che ha trattato il tema della c.d. giustizia predittiva tramite l’uso dell’intelligenza artificiale ha messo a fuoco un dato che poteva sembrare ovvio ma che forse andava ribadito, ossia l’inattuabilità di una IA in funzione sostitutiva del giudice.
Se quindi dobbiamo attenderci innovazioni sempre più dirompenti, tramite l’uso di algoritmi in grado di semplificare i processi di elaborazione di quantitativi enormi di dati o di tecnologie in grado di apprendere e di replicare i processi dell’intelligenza umana, questo non dovrà avvenire a scapito della natura umana del soggetto deputato ad interpretare ed applicare la legge al caso concreto.
L’umanità del giudice è imposta dalla Costituzione che stabilisce, all’art. 102, che “la funzione giurisdizionale è esercitata da magistrati ordinari istituiti e regolati dalle norme sull’ordinamento giudiziario. Non possono essere istituiti giudici straordinari o giudici speciali” .
L’art. 4 del RD 30 gennaio 1941, n. 12 (Ordinamento giudiziario) stabilisce che: “L'ordine giudiziario è costituito dagli uditori, dai giudici di ogni grado dei tribunali e delle corti e dai magistrati del pubblico ministero.”
La componente umana è talmente immanente alla figura del giudice, ed anche talmente rilevante, che l’ordinamento si preoccupa di valutare il magistrato non solo sotto il profilo della preparazione, ma anche sotto il profilo dell’equilibrio, dell’imparzialità, dell’indipendenza e della correttezza nei rapporti con i colleghi, gli avvocati, il personale amministrativo, la polizia giudiziaria, i cittadini ed i mezzi di comunicazione ; tali valutazioni vengono svolte sia in sede di tirocinio, sia in sede di successive valutazioni di professionalità, quindi lungo (quasi) tutta la carriera del magistrato.
Il giudice è, quindi, senz’altro un esperto dotato di una preparazione culturale adeguata alla funzione che deve espletare, ma è anche una persona che l’ordinamento si perita di valutare sotto i diversi profili sopra richiamati .
D’altra parte, la funzione è vitale per la vita di un paese democratico, pertanto l’obiettivo è quello di assicurarsi che venga esercitata da persone dotate dei necessari requisiti.
Tuttavia, se il giudizio umano può essere fallace per una serie di ragioni che non è il caso di approfondire in questa sede, la potenza di elaborazione, l’ipotetica precisione nella gestione dei dati e l’impermeabilità alle debolezze umane, proprie di una macchina, non potranno mai sostituirlo.
Il giudizio umano è, innanzitutto, irraggiungibile nella valutazione dei fatti, ossia nella capacità di apprezzare le sfumature (sempre mutevoli) di ciascun caso concreto al fine di comprendere cosa sia accaduto nella specifica occasione posta alla sua attenzione.
Nella materia lavoristica, ad esempio, tale capacità di approfondimento e di comprensione del fatto concreto è fondamentale per la decisione dei licenziamenti disciplinari, posto che alla base di ogni contestazione vi sono fatti in relazione ai quali vanno compiuti complessi accertamenti al fine di valutarne non solo la sussistenza, ma anche la rilevanza disciplinare.
Possono essere allora rilevanti le qualità personali e professionali dei soggetti coinvolti, la storia lavorativa, le circostanze di tempo e di luogo in cui i fatti si sarebbero verificati, le modalità concrete, il contesto aziendale, gli antecedenti, le conseguenze.
Occorre, in poche parole, capire cosa sia successo, con quali modalità, in quale contesto, per quale ragione e con quali conseguenze.
Si può dire, inoltre, che il giudizio umano sia irraggiungibile anche per la capacità di “ascolto empatico”, ossia per la capacità di comprensione di un fatto umano che solo un altro essere umano potrebbe avere, sulla base di un bagaglio esperienziale e di un vissuto composto da informazioni che sono state archiviate e “processate” unitamente all’insieme delle sfumature emotive che conferiscono al dato esperienziale stesso la sua connotazione tipicamente umana .
Infine, solo un essere umano potrebbe essere in grado di elaborare, di volta in volta, una visione di insieme del complessivo sistema delle fonti e dei princìpi costituzionali, eurounitari e internazionali, enucleando la regola da applicare nella maniera più aderente possibile al caso concreto.
Ciò detto, è il caso di fare anche un’altra riflessione.
A parere di chi scrive, in un’epoca in cui il ragionamento sulla giustizia ha tra gli argomenti più sentiti lo smaltimento dell’arretrato, il contenimento dei tempi della giustizia e l’ottenimento di standard di efficienza sempre più elevati, al magistrato si dovrebbe chiedere un ulteriore sforzo di umanità, ossia di non dimenticarsi che all’ombra di ogni fascicolo ci sono delle persone sulle quali la decisione va ad incidere.
Sotto questo profilo, il processo del lavoro, con la presenza personale costante delle parti, aiuta a non perdere di vista tale prospettiva, tenuto conto della assoluta centralità del lavoro nella vita delle persone e nel contesto produttivo.
Pare di poter dire che una tale attenzione non possa essere richiesta ad una macchina, che anzi tenderebbe a semplificare, privilegiando la risoluzione del “problema”, ossia l’eliminazione del fascicolo.
L’umanità del giudicante andrebbe, quindi, non solo riaffermata, ma anche difesa ed implementata sotto questo ultimo profilo, seguendo una direttrice opposta a quella incline a privilegiare l’efficienza a scapito della qualità delle decisioni.
Da ultimo, il Regolamento UE 2024/1689 del 13 giugno 2024, sopra citato, espressamente statuisce, all’art. 1, che “Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno e promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, contro gli effetti nocivi dei sistemi di IA nell'Unione, e promuovendo l'innovazione”.
Al considerando n. 6 era stato premesso che: “In considerazione dell'impatto significativo che l'IA può avere sulla società e della necessità di creare maggiore fiducia, è essenziale che l'IA e il suo quadro normativo siano sviluppati conformemente ai valori dell'Unione sanciti dall'articolo 2 del trattato sull'Unione europea (TUE), ai diritti e alle libertà fondamentali sanciti dai trattati e, conformemente all'articolo 6 TUE, alla Carta. Come prerequisito, l'IA dovrebbe essere una tecnologia antropocentrica. Dovrebbe fungere da strumento per le persone, con il fine ultimo di migliorare il benessere degli esseri umani”.
L’Europa, mettendo in primo piano i diritti e le libertà fondamentali, ha quindi espresso il principio di IA come tecnologia antropocentrica, “strumento per le persone, con il fine ultimo di migliorare il benessere degli esseri umani”.
3. Alcune prospettive di utilizzo dell’intelligenza artificiale in funzione ausiliaria: banche dati di ultima generazione e giustizia predittiva.
Le prospettive dell’utilizzo dell’intelligenza artificiale in funzione ausiliaria e servente sono, invece, decisamente interessanti.
Sotto un profilo più tradizionale, si può ipotizzare lo sviluppo ed il potenziamento delle banche dati in funzione di ausilio dei singoli operatori nella tradizionale attività di studio e di valutazione del caso concreto.
Sotto altro profilo, certamente più innovativo, si possono ipotizzare strumenti con funzione predittiva, che aiutino gli operatori, ed i cittadini in generale, a prevedere quali siano i possibili esiti della potenziale controversia.
Infine, l’intelligenza artificiale potrebbe fornire un ausilio nella gestione delle incombenze organizzative del lavoro giudiziario .
Le banche dati sono da sempre uno strumento imprescindibile nel lavoro quotidiano degli operatori del diritto.
Disponiamo da tempo di banche dati potenti ed affidabili come Italgiure e, dal dicembre 2023, è operativa la nuova Banca Dati di Merito.
La Banca Dati di Merito (BDM), accessibile tramite il portale dei servizi telematici ministeriali mediante autenticazione con i sistemi SPID, CIE e CNS, offre:
• Banca Dati Pubblica (BDP): accesso a provvedimenti pseudo-anonimizzati per garantire trasparenza e tutela della privacy;
• Banca Dati Riservata (BDR): destinata ai magistrati, con documenti completi, eccetto quelli riguardanti minori e famiglia.
Le prospettive future, secondo la Relazione del Ministero sull’amministrazione della Giustizia anno 2024 , includono “ricerca avanzata in linguaggio naturale e strumenti per la redazione di abstract dei provvedimenti, migliorando accessibilità e coerenza giuridica”.
L’intelligenza artificiale potrebbe garantire un’elaborazione ancora più precisa e più rapida delle ricerche dei precedenti, fornendo le risposte più pertinenti al quesito formulato, magari non più attraverso le classiche parole chiave, ma a seguito di un dialogo con l’IA che consenta di mettere meglio a fuoco la questione da approfondire.
Da approfondire sono, inoltre, le prospettive di sviluppo ipotizzabili con l’uso dell’intelligenza artificiale in funzione predittiva dell’esito di una potenziale controversia.
L’IA potrebbe essere in grado di processare dati specifici attinenti ad una fattispecie concreta, confrontandoli con una banca dati di precedenti e di normativa attinenti ad una determinata casistica, al fine di elaborare una previsione del possibile esito di una controversia.
L’effetto utile potrebbe essere quello di fornire un concreto supporto all’ordinaria attività di consulenza prodromica alla proposizione della causa, operando anche in funzione dissuasiva rispetto alle controversie per le quali sia prevedibile un esito infausto.
Entrambi gli strumenti potrebbero risultare di particolare ausilio nel microcosmo lavoristico, caratterizzato da un contenzioso di particolare dinamicità per effetto della consistente produzione normativa e della continua evoluzione, anche tecnologica, del mondo del lavoro.
Il continuo emergere di nuovi filoni di controversie costituisce terreno particolarmente fertile per la sperimentazione di banche dati di nuova generazione e per l’utilizzo di strumenti di giustizia predittiva operativi sia localmente che a livello nazionale.
Non stupisce, sotto tale profilo, che le sperimentazioni di giustizia predittiva già in essere abbiano selezionato, insieme ad altre, proprio la materia lavoristica come ambito privilegiato per testare il funzionamento del nuovo strumento .
4. I rischi dell’algoritmo
L’applicazione dell’intelligenza artificiale al settore giustizia, anche in funzione servente, non è priva di rischi e l’ampia letteratura che si è sviluppata sul punto dimostra che gli studiosi e gli operatori che hanno approfondito l’argomento ne sono consapevoli .
Occorrerebbe, tuttavia, che se ne parlasse di più e che vi fosse ancora più consapevolezza, tenuto conto del fatto che l’impiego dell’intelligenza artificiale, anche nel settore giustizia, appare ineluttabile.
Il primo rischio segnalato da più parti è quello dell’appiattimento del giudicante sui suggerimenti dell’intelligenza artificiale. Si teme che il giudice che disponga di strumenti potenti per l’elaborazione di dati e l’individuazione di precedenti e di soluzioni da adattare al caso concreto, possa abdicare allo sviluppo di un proprio ragionamento logico-giuridico, affidandosi in maniera acritica a tali strumenti.
Inoltre, gli algoritmi opererebbero su basi di dati costituite da precedenti e quindi guardando al passato, con il rischio di indurre la giurisprudenza a stratificarsi su quanto già acquisito omettendo di rinnovarsi e di intraprendere nuovi percorsi.
È stato poi paventato un ulteriore rischio, ossia il rischio della profilazione degli operatori ed in particolare di giudici e avvocati.
Al fine di contenere detto rischio, in Francia è stato imposto per legge uno stop preventivo alle iniziative volte a servirsi degli open data giudiziari per studiare tools che permettessero di profilare i magistrati per ricostruire il loro pensiero giuridico e giudiziario, al fine di impostare su base predittiva ipotesi di difesa.
La legge n. 2019-222, di programmazione 2018-2022 e di riforma della giustizia, prevede, infatti, sanzioni penali per chiunque, partendo dalle decisioni e sentenze, raccolga, analizzi e riutilizzi "i dati di identità dei magistrati con lo scopo o l'effetto di valutare, analizzare, confrontare o prevedere le loro pratiche effettive o presunte pratiche professionali” .
Vi sono poi rischi, se possibile, ancora più gravi. Si tratta dei rischi connessi alla conoscibilità dell’algoritmo ed alla potenziale discriminatorietà dello stesso.
Sotto il primo profilo, l’algoritmo è, e resta, una “scatola nera” se non si è in grado di decifrarne la logica, cioè se non si comprende come tale procedimento metta assieme i dati e quindi effettui le valutazioni .
Nel nostro settore, utilizzare uno strumento che fornisca risposte come un oracolo, senza sapere quanti e quali dati abbia in pancia e come tali dati siano stati aggregati e valutati, non è evidentemente una strada percorribile.
La questione non è di poco conto, considerato che lo sviluppo dell’intelligenza artificiale è attualmente, per lo più, in mano ad imprese private operative in varie parti del mondo e che i sistemi via via sviluppati possono essere coperti dal segreto industriale.
L’algoritmo può risultare poi discriminatorio quando si fonda su un set di dati che è già in partenza discriminatorio. È il principio del c.d. garbage in garbage out: l’esito del lavoro dell’algoritmo non può che riflettere ed essere determinato dalla qualità dei dati sui quali è costruito.
Per comprendere appieno il rischio in questione, oltre che fare riferimento al noto caso Loomis, per il quale si rimanda alla copiosa letteratura che se n’è occupata , è utile richiamare cosa è accaduto, tra il 2014 e il 2017, quando Amazon ha deciso di automatizzare le procedure di selezione del personale, demandando ad un software la selezione dei curricula da esaminare .
L’algoritmo era stato allenato per mezzo di un set di dati composto dai curricula ricevuti dalla società nell'arco dei dieci anni precedenti. Si trattava di curricula che provenivano in gran parte da uomini, che sono storicamente e statisticamente più presenti nei settori tecnologici. Per questo motivo l’algoritmo, valorizzando tale dato, tendeva a penalizzare i curricula provenienti dalle donne, producendo, quindi, un effetto discriminatorio.
5. La regolamentazione europea
La riflessione su tali criticità aveva già condotto alla elaborazione dei seguenti principi nella “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi”, adottata dalla CEPEJ nel 2018 : rispetto dei diritti fondamentali; non discriminazione; qualità e sicurezza; trasparenza, imparzialità ed equità; controllo da parte dell’utilizzatore, c.d. “human in the loop”.
Oggi, nell’ottica delle indicazioni già tracciate nella Carta etica europea sopra citata, il Regolamento n. 1689/2024 sull’intelligenza artificiale (c.d. AI Act), introduce un complesso sistema di regole per lo sviluppo e la messa in commercio di sistemi di intelligenza artificiale sul territorio dell’Unione europea.
Il Regolamento adotta un approccio fondato sulla valutazione del rischio, classificando i sistemi di intelligenza artificiale in tre categorie a seconda del rischio che questi pongono per la sicurezza degli utenti e per il rispetto dei diritti fondamentali.
Per ciascuna categoria sono individuati gli obblighi gravanti sui fornitori e sugli utilizzatori “professionali” (c.d. deployer).
I sistemi di IA che presentano rischi considerati inaccettabili non potranno essere introdotti nel mercato europeo; i c.d. sistemi ad alto rischio potranno, invece, essere commercializzati, purché siano rispettate una serie di prescrizioni; per i sistemi a rischio limitato sarà, infine, sufficiente il rispetto di determinati obblighi di trasparenza.
In maniera del tutto opportuna, il Regolamento ha inserito i software di ausilio dell’attività giudiziaria tra i sistemi ad alto rischio.
Il Regolamento in questione evidenzia come tali sistemi potrebbero giungere ad avere un impatto significativo sulle libertà individuali ed in definitiva sulla democrazia e sullo Stato di diritto.
Nel considerando n. 61 è, infatti, osservato che “Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti. Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie a tali fini dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti. L'utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all'indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un'attività a guida umana. Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi”.
Condivisibile anche la scelta di regolamentare in via preventiva l’uso dei sistemi di AI, prevedendo che essi “siano immessi sul mercato dell’Unione, messi in servizio o utilizzati solo se soddisfano determinati requisiti obbligatori” (considerando 46).
Come anticipato, i sistemi di IA ad alto rischio sono soggetti a obblighi rigorosi prima di poter essere immessi sul mercato.
I requisiti richiesti sono i seguenti:
adeguati sistemi di valutazione e mitigazione dei rischi, prevedendo che il sistema di gestione dei rischi sia un “processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio” (art. 9);
alta qualità dei set di dati che alimentano il sistema per ridurre al minimo i rischi di risultati discriminatori (art. 10);
redazione e messa a disposizione preventiva di documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo affinché le autorità ne valutino la conformità (art. 11);
registrazione automatica degli eventi (“log”) per garantire la tracciabilità dei risultati (art. 12);
sviluppo e progettazione dei sistemi in modo da garantire che il loro funzionamento sia “sufficientemente trasparente da consentire ai deployer di interpretare l'output del sistema e utilizzarlo adeguatamente”; in particolare i sistemi ad alto rischio devono essere “accompagnati da istruzioni per l'uso, in un formato appropriato digitale o non digitale, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per i deployer” (art. 13);
adeguate misure di sorveglianza umana: i sistemi di IA devono essere “progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso” (art. 14);
elevato livello di robustezza, cibersicurezza e accuratezza (art. 15).
E’ poi stabilito che, una volta che un sistema di IA sia sul mercato, sia svolto un monitoraggio continuativo da parte delle autorità, degli operatori e dei fornitori stessi.
L'Ufficio europeo per l'IA, istituito nel febbraio 2024 in seno alla Commissione, sovrintende all'applicazione e all'attuazione della legge sull'IA negli Stati membri dell'UE.
Gli Stati membri dell'UE, a loro volta, devono vigilare sulle norme per i sistemi di IA e devono istituire autorità di vigilanza entro il 2 agosto 2025.
6. Le cautele d’obbligo
Il quadro sopra delineato costituisce la concretizzazione delle più opportune regole di cautela ipotizzabili per la neutralizzazione dei rischi sopra richiamati.
Appare del tutto opportuno che vi sia un controllo pubblico sugli algoritmi impiegati; questi ultimi, se non di proprietà pubblica, dovrebbero quantomeno essere certificati da un’autorità pubblica, previa verifica sul funzionamento.
La qualità dei dati di dottrina, giurisprudenza e normativa utilizzati dovrebbe essere sottoposta ad un controllo stringente, essendo evidente che l’incompletezza del dataset o la sua erroneità non possono avere altra conseguenza che la totale inaffidabilità della risposta fornita dal sistema.
La c.d. trasparenza algoritmica va implementata quantomeno sotto il profilo della explainability, dovendo il funzionamento dell’algoritmo essere a grandi linee comprensibile.
In generale, l’uso dell’intelligenza artificiale nel processo andrebbe configurato in piena condivisione tra le Istituzioni con il necessario concorso dell’Avvocatura, in modo che le cautele adottate costituiscano un patrimonio comune nell’esclusivo interesse della tutela dei diritti e della conservazione dello Stato di diritto.
In ossequio a principi ormai consolidati circa l’uso di processi decisionali automatizzati , l’uso degli strumenti in questione andrebbe effettuato in piena trasparenza e nel contraddittorio delle parti, di modo che il processo di valutazione degli elementi di prova, quanto al materiale utilizzato, sia interamente tracciabile.
Appare, infine, assolutamente cruciale la formazione.
E’ importante essere preparati anche sotto il profilo tecnico al fine di arrivare, un domani, a gestire l’IA in maniera consapevole, efficace e sicura.
Il dovere di competenza è previsto nell’ambito del Regolamento Europeo più volte citato ed è valutato come fondamentale sia a livello privato, sia a livello istituzionale.
Di recente, ad esempio, l’Ordine degli Avvocati di Milano ha adottato una “Carta dei Principi per un uso consapevole di strumenti di intelligenza artificiale in ambito forense” , che prevede, significativamente, tra gli altri, un “dovere di competenza” dell’avvocato sotto il profilo tecnologico, chiarendo che “è essenziale comprendere le funzionalità e i limiti dei sistemi di AI utilizzati, per garantire che i risultati siano accurati e appropriati al contesto legale”.
7. Conclusioni
La giustizia deve restare nelle mani dell’uomo ed anzi deve recuperare umanità proprio nel momento in cui le spinte verso il produttivismo potrebbero trarre ulteriore linfa vitale dalla disponibilità di strumenti di nuova generazione dalle potenzialità teoricamente illimitate ed incontrollabili.
L’intelligenza artificiale arriverà e costituirà uno strumento rivoluzionario in grado di semplificare anche il lavoro giudiziario e di migliorarne sia l’efficienza che la qualità.
I rischi vanno neutralizzati nel quadro della Regolamentazione europea che, viste le potenzialità dirompenti delle nuove tecnologie e i correlativi pericoli, in maniera del tutto opportuna, alza una diga normativa a tutela dei diritti fondamentali delle persone e dello Stato di diritto.
Per poter far fronte alla rivoluzione imminente ed operare nel modo migliore possibile è, tuttavia, fondamentale prepararsi attraverso un’attività di formazione che consenta di acquisire gli strumenti necessari a far sì che l’IA resti solo uno strumento, sia pure potentissimo, al servizio di mani umane e consapevoli.