testo integrale con note e bibliografia

1. Giustizia “predittiva” e nuove tecnologie: le ragioni di interesse e gli attuali termini della questione
1.1. Quello della certezza del diritto (in uno con l’imparzialità del giudizio e l’uniformità delle decisioni) è indubbiamente un valore nella prospettiva del perseguimento di un processo giusto e della fiducia dei cittadini nell’amministrazione della giustizia .
Negli ultimi tempi tale valore è stato declinato non tanto sul versante della stabilità della legislazione, bensì su quello della prevedibilità della decisione giudiziaria (c.d. giustizia predittiva).
Fondamentale, anche in un sistema di c.d. civil law come il nostro, è la conoscenza dei precedenti giurisprudenziali emessi in relazione a casi analoghi, che possono costituire uno strumento di orientamento sull’inquadramento delle questioni e sulle ragioni giuridiche a sostegno delle interpretazioni accolte, ma da cui il giudice è libero di discostarsi, in ragione della ritenuta maggiore persuasività di una diversa interpretazione delle norme giuridiche da applicare e delle peculiarità del caso concreto. Il valore della certezza del diritto, che implica la conoscenza di come si è deciso in passato, va, del resto, contemperato con l’evoluzione dell’ordinamento, non solo in termini di nuovi assetti normativi rispetto a quelli su cui si basano i precedenti, ma anche in termini di evoluzione della giurisprudenza, che risente dei mutamenti del contesto economico-sociale, come in particolare accade nell’interpretazione e applicazione al caso concreto delle c.d. clausole generali e delle norme elastiche, che caratterizzano anche il diritto del lavoro . In questi casi, definiti di “imprevedibilità strutturale”, potrebbe accadere che la deviazione rispetto al pregresso orientamento sia essa stessa un valore, nella prospettiva di una giustizia davvero giusta nel caso concreto.
1.2. La conoscenza dei precedenti è stata senz’altro agevolata nel passaggio dai repertori cartacei alle banche dati elettroniche, e ulteriori prospettive sono, oggi, offerte dalle nuove tecnologie - in particolare dall’intelligenza artificiale (c.d. IA) -, che sono state applicate alle banche dati sia in funzione di ausilio alla ricerca, sia per la costruzione di sistemi asseritamente in grado di individuare (anche in sostituzione del giudice-persona fisica) la decisione del caso concreto.
Tanto che, nell’ambito dell’ampio concetto di giustizia predittiva, in letteratura si rinviene la distinzione tra giustizia predittiva “in senso lato/debole”, che, anche attraverso le nuove tecnologie, ha la funzione di ausilio nell’individuazione dei precedenti giudiziari utili a prevedere l’esito di una controversia (c.d. algoritmo predittore), e giurisprudenza predittiva “in senso stretto/forte”, ovverosia la tecnologia che potrebbe (il condizionale è opportuno, v. infra) essere in grado di individuare la soluzione del caso concreto in sostituzione del giudice, ovverosia di formulare la c.d. decisione robotica (c.d. algoritmo decisore) .
Probabilmente il giurista che vede irrompere nel suo mondo queste nuove tecnologie, peraltro in rapidissima evoluzione, non è provvisto di tutte le conoscenze di tipo tecnico-informatico per rispondere senza perplessità alla domanda se davvero un sistema di IA possa essere in grado di “predire” la decisione giudiziaria o di assumere una decisione in luogo del giudice in modo attendibile, se non altro a causa dell’attuale denunciato deficit di spiegabilità dei risultati (c.d. output) del funzionamento degli algoritmi , alcuni dei quali in grado di modificarsi con l’uso rispetto all’iniziale programmazione. Sarebbe probabilmente necessaria una sperimentazione che confronti gli esiti derivanti dall’applicazione ex ante del sistema di IA di giustizia predittiva “in senso stretto/forte” ad un certo novero di controversie e le decisioni giudiziarie effettivamente assunte ex post dai giudici in ordine a quelle medesime controversie.
1.3. Impregiudicata la valutazione, alla luce dell’attuale assetto ordinamentale, della legittimità dell’impiego di queste nuove tecnologie (profilo su cui v. infra), tenendo presente le diverse modalità di funzionamento che attualmente caratterizzano l’intelligenza artificiale rispetto all’intelligenza umana, come indicate in letteratura , non parrebbe verosimile che un sistema di IA possa individuare in modo sicuro e affidabile la decisione del caso concreto, soprattutto nell’ambito di un diritto caratterizzato da clausole generali e norme elastiche, come il diritto del lavoro.
Invero, l’intelligenza artificiale, per come è descritta oggi, non è in grado di svolgere un ragionamento giuridico di stampo logico-deduttivo. Essa si basa su un ragionamento “per casi”, di tipo statistico, attraverso l’analisi, ad una velocità ineguagliabile dall’intelligenza umana, di un ampio novero di precedenti e l’individuazione di somiglianze e ricorrenze. Se è così, anche ipotizzando che i dati processati dal sistema siano tutti qualitativamente accettabili, il sistema di IA potrebbe, verosimilmente, individuare in modo affidabile la soluzione della concreta controversia nelle ipotesi di contenzioso c.d. seriale, laddove gli aspetti differenziali tra le cause da decidere e quelle già decise in passato non siano dirimenti. Ma in tal caso sarebbe, forse, non particolarmente utile per gli operatori in termini di innalzamento del livello di certezza del diritto.
Con riferimento alle cause non seriali, il sistema di IA verosimilmente potrà individuare velocemente e con completezza i precedenti simili, ma difficilmente potrà ricostruire compiutamente la fattispecie, sussumerla nel corretto quadro normativo ed individuare la soluzione del caso concreto. Vieppiù laddove si tratti di applicare clausole generali o norme elastiche (si pensi ai concetti di buona fede e correttezza, giusta causa di licenziamento o di dimissioni, ecc.). In altri termini, il sistema di IA potrà, verosimilmente, individuare, in ipotesi, quante volte, in un arco temporale determinato, i giudici hanno ritenuto che una certa condotta integri giusta causa di licenziamento, ma difficilmente potrà “predire” con affidabilità la soluzione della singola controversia in cui si tratti di valutare, in ipotesi, se quella condotta risulti giustificata da circostanze peculiari, non presenti nei precedenti analizzati, o rientri o meno in una ipotesi di sanzione conservativa prevista da una disposizione di un CCNL non analizzata dai precedenti medesimi.
Oltre al fattore rappresentato da una legislazione caratterizzata da clausole generali e norme elastiche, ulteriori fattori di “incalcolabilità” dell’esito di una controversia lavoristica, difficilmente traducibili in algoritmo, parrebbero rappresentati dal significativo tasso di mutevolezza della legislazione, dalla significativa incidenza del diritto sovranazionale (con le correlate possibili incertezze sulla ricostruzione del quadro normativo) , dalla frequente necessità di effettuare complessi accertamenti in fatto attraverso l’audizione di numerosi testimoni e la valutazione delle relative deposizioni (si pensi alle cause di mobbing).
In definitiva, la considerazione di fondo, che deve essere tenuta presente in tutti i ragionamenti sull’impiego dei sistemi di IA nell’amministrazione della giustizia, è che il diritto, in quanto regolazione dei rapporti tra consociati, ha una dimensione “essenzialmente umana”, che mal si coniuga con il calcolo e l’automatismo , e una ontologica tendenza evolutiva, che mal si coniuga con l’impossibilità strutturale dell’algoritmo di “predire” qualcosa che non si sia già verificato -e con una certa rilevanza statistica – in passato . Un tanto è particolarmente evidente nel diritto del lavoro, che regolamenta uno dei principali ambiti ove trova esplicazione la personalità dell’individuo e tutela i diritti fondamentali che l’ordinamento multilivello riconosce al lavoratore in primis in quanto persona, con particolare riferimento alla libertà, alla dignità e alla riservatezza delle informazioni che lo riguardano (artt. 2, 3, 41 Cost.; artt. 1, 6, 7, 9 della Carta dei diritti Fondamentali dell’Unione Europea; art. 8 Convenzione Europea dei Diritti dell’Uomo; Titolo I dello Statuto dei diritti dei lavoratori, l. 300/1970).
1.4. Ferme queste perplessità “di fondo”, l’apporto che il giurista può senz’altro offrire al dibattito, necessariamente interdisciplinare, è l’individuazione delle ragioni dell’interesse per le nuove tecnologie, già ampiamente presenti sul mercato, e la perimetrazione dell’ambito in cui, nell’attuale assetto ordinamentale, esse possono essere legittimamente utilizzate nell’amministrazione della giustizia.
Le ragioni di interesse sono legate al reperimento di nuovi e più moderni strumenti in grado non solo di facilitare, in termini di velocità di ricerca e di completezza dei risultati, il reperimento dei precedenti su casi analoghi e sulla normativa applicabile, ma, altresì, di semplificare più in generale il lavoro del giudice (sgravandolo, in particolare, da attività di tipo organizzativo/amministrativo o a c.d. “basso valore aggiunto”), sì da liberare tempo da dedicare alla decisione, in modo tale che essa, adeguatamente meditata, sia non solo giusta nella sostanza, ma arrivi anche in tempi ragionevoli. Anche per tal via (efficientamento del complessivo sistema-giustizia), a ben vedere, si può perseguire il valore della certezza del diritto.
Quanto al perimetro di applicazione di questi sistemi nell’amministrazione della giustizia, le notazioni che seguono non hanno l’ambizione di essere punti di approdo, ma solo dei punti di inizio della riflessione, che, attesa la velocità con cui queste nuove tecnologie si sviluppano ed evolvono, dovranno giocoforza essere costantemente aggiornate, allo scopo di prevenire i largamente annunciati rischi di disumanizzazione che l’IA, che (allo stato) non ha autocoscienza, porta con sé.
2. Intelligenza Artificiale e amministrazione della giustizia: il quadro delle regole nell’AI Act
2.1. Di intelligenza artificiale ormai si parla in ogni ambito e certamente era impensabile che l’amministrazione della giustizia, in generale e in particolare con riferimento al processo del lavoro, non ne venisse attinta . Si tratta, infatti, di una tecnologia (o di una “famiglia di tecnologie” ) che si sta rapidamente sviluppando in tutti gli ambiti e che appare estremamente potente, in particolare per la velocità con cui riesce ad analizzare, mettere in correlazione e compiere operazioni su enormi quantità di dati. Promette, in tale prospettiva, considerevoli benefici in termini di velocizzazione, efficientamento ed in generale miglioramento delle attività a cui è applicata, ma vari studi hanno già messo in luce i rischi, in particolare per la tutela dei diritti fondamentali (in primis il diritto alla tutela della dignità umana, al rispetto della vita privata e familiare, il diritto di uguaglianza e non discriminazione ma anche il diritto ad un ricorso effettivo dinanzi a un giudice) e i possibili limiti, legati alla qualità/rappresentatività dei dati che vengono utilizzati come addestramento nonchè all’opacità del funzionamento degli algoritmi che ne stanno alla base, che potrebbe non renderne comprensibili/spiegabili i risultati .
La sfida, dunque, appare quella di riuscire a cogliere i benefici di queste nuove tecnologie senza lasciarsene travolgere, nella consapevolezza che l’IA è un prodotto dell’uomo che ne deve “intelligentemente” mantenere il controllo, vietandone l’utilizzo laddove i rischi per i diritti fondamentali siano inaccettabili e regolamentandola in chiave “antropocentrica” negli altri casi. L’IA deve restare al servizio dell’uomo per l’innalzamento del benessere, con particolare riferimento alle condizioni di lavoro , anche nell’ambito dell’amministrazione della giustizia, non deve espropriarlo delle sue funzioni più qualificanti, disumanizzando gli ambiti in cui più emergono i valori della personalità umana.
2.2. A tale prospettiva si è ispirata la prima regolamentazione a livello eurounitario dell’IA, il Regolamento UE n. 1689/2024, c.d. AI Act. Si tratta di una disciplina che, nella consapevolezza delle potenzialità e dei benefici dell’IA , mira alla tutela del mercato interno e della libera circolazione di beni e servizi basati su tale tecnologia, per non ostacolarne lo sviluppo ma, anzi, per favorire la “fiducia” nel suo impiego, laddove sia “antropocentrica”, “sicura”, “affidabile” ed “etica” . Al contempo il Regolamento, nella consapevolezza del diverso livello di rischio dell’IA a seconda del settore di impiego, pone il divieto di utilizzo laddove i rischi per i diritti fondamentali siano inaccettabili (art. 5). Laddove l’impiego dell’IA comporti rischi per i diritti fondamentali che, sebbene non inaccettabili, siano nondimeno “alti”, l’AI Act introduce un assetto regolativo incentrato sui principi di trasparenza, affidabilità, spiegabilità dei risultati, sorveglianza umana, adeguata alfabetizzazione in materia (v. in particolare, Capo I e Capo III dell’AI Act).
Si tratta, tuttavia, di una disciplina dichiaratamente minima e complementare, suscettibile di essere integrata per effetto di ulteriori atti, non solo dell’Unione ma anche degli Stati membri (v. art. 2 dell’AI Act) , e di carattere intersettoriale che lambisce, per alcuni profili, anche l’amministrazione della giustizia, espressamente citata, nel Considerando n. 4, tra i settori che potranno trarre benefici dall’impiego dell’IA. La prima fonte di integrazione delle tutele (peraltro espressamente richiamata dall’art. 2 dell’AI Act) è senz’altro, allo stato, il Regolamento UE n. 2016/679, c.d. GDPR, in materia di trattamento dei dati personali. Questo perchè i sistemi di IA si basano sull’analisi di dati, quindi anche di dati personali, con conseguente applicazione della relativa regolamentazione e delle relative tutele.
2.3. E’ significativo che l’AI Act, nella ricerca del punto di equilibrio tra promozione dell’innovazione e della diffusione dei sistemi di IA e protezione dai loro possibili “effetti nocivi”, ponga, tra le disposizioni generali (con applicazione dal 2 febbraio 2025), l’obbligo, in capo ai fornitori e agli utilizzatori professionali (c.d. deployers, qualifica rivestita da chi utilizza professionalmente un sistema di IA “sotto la propria autorità”, v. art. 3, n. 4, dell’AI Act) l’obbligo di adottare misure idonee a garantire un livello sufficiente di alfabetizzazione in materia, non solo del proprio personale ma di qualsiasi altra persona che si occupa del funzionamento e dell’utilizzo dei sistemi di IA per loro conto (v. art. 4 dell’AI Act che prevede in via generale il relativo obbligo). Come emergerà nel prosieguo delle presenti note, l’alfabetizzazione sarà, invero, uno degli strumenti fondamentali per non “subire” gli effetti di questa tecnologia ma per acquisire piena consapevolezza delle sue potenzialità e dei suoi limiti, e riuscire, dunque, a sfruttarla con capacità critica, mantenendo il dominio dell’uomo sui processi a cui è applicata.
2.4. Nel febbraio del 2025 è entrato in vigore anche il capo II dell’AI Act, relativo alle “Pratiche vietate”, che riguarda l’individuazione dei sistemi di IA che comportano un rischio inaccettabile per la salute, la sicurezza e i diritti fondamentali protetti dalla Carta dei diritti fondamentali dell’Unione.
Tra i divieti di impiego dei sistemi di IA non vi è alcun riferimento espresso e di carattere generale all’amministrazione della giustizia, ma sono contemplate due ipotesi specifiche suscettibili di interessare anche questo settore e che consentono qualche riflessione. Va subito detto, profilo su cui si ritornerà tra breve, che il fatto che il Regolamento non contempli un divieto espresso di utilizzare l’IA nell’esercizio della giurisdizione non implica la sua ammissibilità incondizionata, dovendo comunque, sul piano sistematico, valutarsi la compatibilità dei singoli, astrattamente ipotizzati, impieghi dell’IA con il più generale quadro ordinamentale eurounitario e interno.
Ebbene, tra i sistemi vietati dall’AI Act sono contemplati, alla lettera d), i sistemi di IA che consentono di effettuare valutazioni del rischio che una persona fisica commetta un reato; divieto che espressamente non si applica ai sistemi di IA utilizzati “a sostegno” della valutazione umana in ordine al predetto rischio previamente effettuata su fatti oggettivi e verificabili. La previsione appare indicativa di una idea di fondo sottesa al Regolamento - e che, come si vedrà, risulta sottesa, in via generale, anche al settore dell’amministrazione della giustizia, alla luce di una visione sistematica dell’ordinamento multilivello -, per cui anche attività che, per loro natura, devono essere inderogabilmente svolte dall’uomo possono essere “supportate” dall’IA. Il punto, allora, come si vedrà, è individuare gli esatti confini di questo (mero) “supporto”.
Ancora, pare interessante rilevare che tra i sistemi vietati dall’AI Act vi sono i sistemi che consentono di inferire le emozioni di una persona fisica nell'ambito del luogo di lavoro. Il divieto, tuttavia, non si applica laddove l'uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza. Questi sistemi in altri ambiti non sono vietati, ma classificati “ad alto rischio” e utilizzabili nel rispetto degli obblighi dettati dall’AI Act. La differente regolamentazione è stata posta perché, come chiarito dai Considerando n. 18 e n. 44, si tratta di sistemi sulla cui base scientifica si nutrono ancora preoccupazioni e che, pertanto, anche in relazione alla loro invasività, si è scelto di vietare in settori caratterizzati da squilibrio di potere, come nell’ambito lavorativo. La previsione appare interessante, anche ai fini delle considerazioni che si vanno svolgendo in questa sede, perché sottolinea l’estrema cautela che deve accompagnare l’impiego di questi sistemi, impiego che non deve andare mai disgiunto da un serrato spirito critico del livello qualitativo e, dunque, di affidabilità e sicurezza dei risultati che essi producono.
2.5. L’amministrazione della giustizia è espressamente contemplata nell’Allegato III dell’AI Act, che riguarda i sistemi di IA ad alto rischio di cui all’art. 6, par. 2, del Regolamento medesimo (con applicazione dal 2.8.2026), ovverosia quelli il cui impiego, presentando elevati rischi per la salute, la sicurezza e i diritti fondamentali tutelati dalla Carta, è ammesso solo nel rispetto dei requisiti e degli obblighi previsti dal Regolamento, quale livello di tutela minimo, in capo sia ai fornitori, sia, per quanto rileva nel nostro ambito, agli utilizzatori professionali.
In particolare, l’Allegato III, con riferimento all’amministrazione della giustizia, classifica come ad alto rischio, e, dunque, in linea generale non vietati ma soggetti ai requisiti e agli obblighi previsti dal Regolamento medesimo, i “sistemi di IA destinati a essere usati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie”. Si tratta di una formulazione ampia e poco puntuale che deve necessariamente essere letta alla luce dell’impostazione di fondo dell’AI Act, che promuove l’IA antropocentrica, trasparente, affidabile ed etica, nonchè alla luce del quadro normativo e di principi offerto dall’ordinamento multilivello.
3. Sull’inammissibilità della giustizia predittiva “in senso forte”: l’AI Act nel quadro dei principi dell’ordinamento multilivello.
3.1. La circostanza che nell’articolato dell’AI Act non si rinvenga un divieto espresso e specifico di impiegare i sistemi di IA nell’amministrazione della giustizia e la circostanza che, anzi, essi sono contemplati – ancorchè sub specie di sistemi ad alto rischio- nell’Allegato III, non implica tout court la indiscriminata legittimità di tale impiego, che deve essere valutato con estrema cautela ed alla luce dei principi fondamentali eurounitari e del nostro assetto Costituzionale.
Quanto alla giustizia predittiva “in senso forte”, id est la decisione robotica (assunta direttamente dal sistema di IA), anche nell’assetto normativo delineato dall’AI Act, essa appare, ancorchè non espressamente vietata, difficilmente conciliabile con il principio antropocentrico che lo ispira e con il Considerando n. 61 , dedicato all’amministrazione della giustizia, che prevede espressamente che l’IA possa fornire “sostegno” all’autorità giudiziaria, ma al contempo indica che il processo decisionale “finale” deve rimanere “a guida umana”: “L'utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all'indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un'attività a guida umana”.
3.2. Alle medesime conclusioni, già indicate nella Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla CEPEJ il 3-4 dicembre 2018 , si perviene sulla base di un ragionamento sistematico nel quadro dell’ordinamento dell’UE e dell’ordinamento interno.
Ed invero, la dottrina ha evidenziato i profili di contrasto della c.d. decisione robotica con i principi della Carta dei diritti fondamentali dell’UE, della nostra Costituzione e del Regolamento UE n. 679/2016 sul trattamento dati personali (c.d. GDPR) .
Quanto alla Carta dei diritti fondamentali dell’UE e alla Costituzione italiana, emergono, in primis: - il profilo relativo alla tutela della dignità umana (art. 1 della Carta dei diritti fondamentali dell’UE e artt. 2,3 della Costituzione italiana), difficilmente compatibile con una situazione in cui sia la decisione di una macchina, per quanto tecnologicamente avanzata, ad incidere sui “beni della vita” di un individuo; - il principio di uguaglianza e non discriminazione (artt. 20, 21 della Carta dei diritti fondamentali dell’UE e art. 3 della Costituzione italiana) che non pare adeguatamente rispettato da sistemi di IA che si basano su algoritmi i cui risultati risentono sia del modo in cui sono stati progettati, sia della maggiore o minore correttezza, completezza e rappresentatività dei dati con sui sono addestrati .
Con specifico riferimento alle disposizioni dettate in materia di amministrazione della giustizia dalla Costituzione italiana, un primo spunto si è tratto dall’art. 24 Cost. in ordine al diritto di difesa come diritto inviolabile, diritto che sarebbe suscettibile di essere pregiudicato da un processo decisionale influenzato, in tutto o in parte, da algoritmi il cui funzionamento sfugge alla piena comprensione dell’essere umano . Si è, inoltre, richiamato l’art. 25, comma 1, Cost. che prevede “ Nessuno può essere distolto dal giudice naturale precostituito per legge”: laddove “naturale”, è stato letto, alla luce dei nuovi scenari aperti dall’IA, come “umano” .
Ulteriore elemento si ritrae dall’art. 101, comma 2, Cost., che, nel prevedere che “I giudici sono soggetti soltanto alla legge”, pare implicare che il giudice non possa essere vincolato o condizionato nella decisione, a lui imputabile, agli esiti di un algoritmo. Ancora, “La funzione giurisdizionale è esercitata da magistrati…” (art. 102 Cost.), indipendenti da ogni altro potere (art. 104 Cost.) e imparziali (art. 111 Cost.): la funzione giudiziaria è funzione essenzialmente, ontologicamente umana e il giudice non potrebbe dirsi indipendente e imparziale se la sua decisione fosse condizionata dall’analisi di una macchina (anche sub specie di analisi dei precedenti, v. infra) programmata da terzi. Non da ultimo, una decisione vincolata agli esiti non compiutamente spiegabili di un algoritmo, non pare rispettosa dell’art. 111, comma 6, Cost., in punto obbligo di motivazione di tutti i provvedimenti giurisdizionali: come si può motivare un risultato finale di cui non sono chiari/esplicitati i passaggi intermedi?
Analoghe le considerazioni che si possono svolgere con riferimento all’art. 47 della Carta dei diritti fondamentali dell’UE che prevede il diritto ad un ricorso effettivo dinanzi a “un giudice” (non una macchina/sistema di IA), giudice “indipendente e imparziale, precostituito per legge”.
Quanto al GDPR, che costituisce, del resto, allo stato, una delle principali fonti di integrazione dell’AI Act (v. artt. 2 e 3 dell’AI Act), è stato richiamato l’art. 22 in materia di “Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione”. Tale articolo prevede il diritto per la persona fisica di non essere sottoposta “ad una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione” che produca effetti giuridici che la riguardano. Laddove per profilazione si intende “qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi ad una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica”. Trattasi di divieto derogabile in presenza di determinate condizioni, tra le quali la sussistenza di una disposizione autorizzatoria nel diritto dell’Unione o dello Stato membro, deroga che, per quanto si va dicendo, non pare configurabile.
Già in base alla nostra Costituzione, alla Carta dei diritti fondamentali dell’UE e al GDPR poteva, dunque, escludersi, ancor prima degli spunti contenuti nell’AI Act (principio antropocentrico, Considerando n. 61, principio della sorveglianza umana ex artt. 14 e 26 e di spiegabilità della decisione ex art. 13), l’ammissibilità della c.d. decisione robotica, da intendersi come decisione di una causa affidata agli esiti dei sistemi di IA, senza alcun filtro o controllo da parte di un giudice - persona fisica.
In tale prospettiva, sarebbe configurabile un divieto, immanente nell’ordinamento multilivello, di affidare la decisione delle controversie a sistemi di IA.
Se tale divieto è immanente nell’ordinamento a prescindere da qualsiasi indagine circa la correttezza degli esiti prodotti dai sistemi di IA, la conclusione non pare, allora, diversa con riferimento alle controversie meramente economiche o di valore ridotto, c.d. small claims, o caratterizzate dalla ripetitività delle questioni, c.d. controversie seriali, o a quelle di carattere documentale in cui il contraddittorio sia eventuale, v. decreti ingiuntivi per il pagamento di somme.
In definitiva, dunque, non pare trovare spazio, nel nostro ordinamento, la c.d. giustizia predittiva di tipo sostitutivo rispetto al giudice - persona fisica. Un tanto, impregiudicata ogni riflessione sul piano della governance di questi sistemi, che, nei limiti in cui potranno trovare applicazione anche nell’amministrazione della giustizia (v. infra), si auspica essere tale da garantire un adeguato controllo (che verosimilmente dovrebbe essere pubblico), in particolare sulla costruzione/programmazione dei sistemi medesimi che dovranno assicurare elevati standards di trasparenza, affidabilità e sicurezza (v., per i sistemi ad alto rischio, l’art. 16, lett. K, dell’AI Act, che prevede che i fornitori di sistemi ad alto rischio, su richiesta motivata di un’autorità nazionale competente, dimostrano la conformità del sistema di IA ad alto rischio ai requisiti previsti dall’AI Act, quali, in particolare, quelli dell’art. 15: accuratezza, robustezza, cibersicurezza).
3.3. Ad analoghe conclusioni (inammissibilità di impiego) pare doversi pervenire in relazione ad altre fasi del processo in relazione alle quali è stato ipotizzato l’impiego dell’intelligenza artificiale, se dirimenti rispetto alla decisione finale, o comunque condizionanti con alto grado di probabilità la decisione finale, laddove al giudice non venga assicurato un congruo “margine di manovra” in termini di possibilità di apprezzamento e valutazione critica degli esiti dei sistemi di IA e in termini di possibilità di discostamento da tali esiti.
Conferme in tal senso si possono trarre dalla decisione della CGUE del 7.12.2023 nella causa C-634/21 , che, con riferimento alla nozione di “decisione basata unicamente sul trattamento automatizzato” di dati ex art. 22 del GDPR, ha chiarito che la predetta nozione include anche il calcolo automatizzato di un tasso di probabilità in ordine al verificarsi di una circostanza che viene valutata dall’uomo ai fini della decisione finale, laddove tale circostanza abbia rilievo dirimente. Dunque, si è accolta una nozione ampia di “decisione”, tale da includere anche un atto automatizzato di carattere prodromico, ma tale da influenzare in modo decisivo una decisione finale umana.
Si pensi alla valutazione di attendibilità di un testimone basata su sistemi di IA. La dottrina ha manifestato condivisibili perplessità in relazione alla possibile fallacia sul piano statistico di una tale valutazione . Ma, ancor più a monte, in base a quanto precede, un impiego di questo tipo potrebbe non essere compatibile con il quadro delle fonti che si è esposto, laddove la decisione finale del giudice-persona fisica sia condizionata in modo decisivo dall’utilizzabilità o meno di una fonte di prova, sostanzialmente stabilita dalla macchina/sistema di IA. Resta aperta la possibilità di ammettere l’impiego di sistemi di questo tipo con funzione meramente ausiliaria/di verifica di una decisione comunque interamente affidata all’uomo, come parrebbe desumersi dalla disciplina dei sopra richiamati sistemi che valutano il rischio che una persona commetta un reato, ammessi dall’art. 5 dell’AI Act solo se utilizzati “a sostegno” di un convincimento già formatosi aliunde, sulla base di dati oggettivi e verificabili.
De iure condendo, sarà, dunque, fondamentale che le fonti normative interne in corso di approvazione in materia (v. infra) individuino con chiarezza sia le funzioni per cui sarà possibile impiegare sistemi di IA nell’attività giurisdizionale sia le caratteristiche (anche di c.d. governance) che tali sistemi dovranno avere.
4. L’ammissibilità della giustizia predittiva “in senso debole”.
4.1. Il divieto di affidare, in tutto o in parte, la decisione delle cause a sistemi di IA che pare desumersi dall’assetto delle fonti sovranazionali e interne potrebbe non implicare, in assenza di espressi divieti normativi di fonte primaria, un divieto assoluto di impiego di queste nuove tecnologie nell’attività giudiziale, quale mero “supporto” ed “ausilio” alla stessa, prospettiva che, come si è visto, si ritrae anche dall’AI Act.
4.2. In questa prospettiva, ispirata a quello che in dottrina è stato indicato sistema c.d. human in command - ovverosia un sistema di IA in cui il processo decisionale viene mantenuto in capo all’uomo - il “supporto” potrebbe essere offerto, in primo luogo, dai sistemi di intelligenza artificiale applicati alle banche dati per facilitare, velocizzare e migliorare gli esiti della ricerca giurisprudenziale, dottrinale e normativa . La capacità di questi sistemi di analizzare rapidamente una quantità sconfinata di materiale, individuando similitudini e ricorrenze, promette senz’altro un miglioramento dei risultati rispetto ai tradizionali sistemi di ricerca e, dunque, una maggiore probabilità di eliminazione del rischio di c.d. contrasti inconsapevoli. Si configurano, certo, anche rischi di possibili distorsioni legate alla progettazione di questi sistemi (che, come già emerso, potrebbero anche riflettere i pregiudizi di chi li ha elaborati o restituire comunque esiti discriminatori) o al loro funzionamento, quale quello della cristallizzazione degli esiti della ricerca su dati del passato, che potrebbero non tener conto dell’evoluzione normativa e dei mutamenti giurisprudenziali più recentemente sopravvenuti, e non riuscire a attagliarsi pienamente alle peculiarità del caso concreto.
Peraltro, ferma la già evidenziata necessità di rigorosi controlli sulla progettazione di questi sistemi, funzionale all’eliminazione di profili discriminatori nel loro funzionamento , è dato rilevare che alcuni dei menzionati rischi (quale quello del recepimento acritico dei risultati della ricerca o di risultati non aderenti alla fattispecie sub iudice) non paiono dissimili a quelli legati all’uso delle banche dati “tradizionali”. Appare, quindi, fondamentale che tutti gli operatori, e in particolare i giudici, abbiano la consapevolezza dei più volte evidenziati possibili limiti di funzionamento di questi specifici sistemi e comunque mantengano alto il livello di analisi critica dei loro risultati, rifuggendo da un “comodo” appiattimento su quelli restituiti dal sistema. In questa prospettiva, l’alfabetizzazione in materia di IA (v. art. 4 dell’AI Act) si rivelerà cruciale (anche se probabilmente di per sé sola non sufficiente) per porre in essere la “sorveglianza umana” sul funzionamento di questi sistemi . Unica via per evitare surrettizie forme di disumanizzazione dell’esercizio della funzione giurisdizionale. Ed invero, va segnalato, sul punto, che l’IA Act evidenzia che la sorveglianza umana sui sistemi di IA ad alto rischio è funzionale anche al mantenimento della consapevolezza “della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull’output prodotto da un sistema di IA ad alto rischio (“distorsione dell’automazione”)” (art. 14, par. 4, lett. b, dell’AI Act).
4.3. Maggiore cautela pare imporsi nell’uso di sistemi di giurisprudenza predittiva che, sebbene con funzione ausiliaria e “orientativa”, sulla base dell’analisi dei precedenti formulano una “previsione” dell’esito di una determinata controversia, eventualmente in chiave statistica. Certo, la valutazione sul legittimo utilizzo di ogni singolo sistema di IA andrà operata sulla base delle sue specifiche caratteristiche. Appare, tuttavia, diverso offrire al giudice un novero di sentenze emesse in casi analoghi, in tesi, utili alla risoluzione della specifica controversia, rispetto alla mera “proposta di soluzione”, anche sub specie di risultati statistici. Nel primo caso, il giudice ha diretta conoscenza dei precedenti selezionati dal sistema ed è posto in grado di valutare autonomamente la loro pertinenza rispetto al caso che deve decidere, nonchè la loro attualità alla luce del quadro normativo e alla realtà economico-sociale al momento della decisione. Nel secondo caso, il giudice si trova di fronte ad una soluzione o ad una statistica elaborata dal sistema di IA, senza ulteriori elementi per un autonomo apprezzamento circa l’attendibilità di tali risultati e la loro applicabilità al caso concreto.
Probabilmente le caratteristiche di questa seconda tipologia di sistemi di IA potrebbero incidere sulla classificazione del loro livello di rischio, ai sensi e per gli effetti della loro disciplina ex AI Act, v. infra, e suggerirne un impiego da parte del giudice non in funzione di ausilio alla decisione ma, in ipotesi, in funzione della formulazione di una proposta per la conciliazione della causa.
Laddove questi sistemi di giustizia predittiva – per i quali non è attualmente previsto un espresso divieto - venissero utilizzati anche dai giudici, troverebbe ulteriore conferma l’importanza di una robusta formazione (art. 4 dell’AI Act) su tutti gli aspetti del loro funzionamento per far sì che il loro utilizzo avvenga con la massima consapevolezza e capacità critica.
Certamente, alla luce di quanto precede, una volta escluso di poter affidare la decisione delle controversie ad un sistema di IA, non potrebbe sostenersi che il giudice che si voglia discostare dall’esito di precedenti similari individuati dall’intelligenza artificiale o dalla previsione dell’esito di una determinata controversia effettuato da un sistema di IA sia tenuto a motivare le ragioni di tale scostamento, in quanto per tal via si perverrebbe surrettiziamente ad assegnare all’IA un ruolo nella decisione della causa che non pare costituzionalmente compatibile .
4.4. Una ulteriore forma di possibile “sostegno” dell’IA all’attività del giudice è quella di supporto nella redazione di provvedimenti giurisdizionali, anche decisori. In Italia sono stati avviati progetti sperimentali di questi sistemi di IA, alcuni dei quali costituiscono lo sviluppo di funzionalità già esistenti nella Consolle del magistrato . Si tratta, a quanto è dato di comprendere, di sistemi che agevolano la stesura del provvedimento non solo attraverso l’estrazione dal fascicolo digitale di elementi di redazione della sentenza relativi a numero di ruolo, dati delle parti, provvedimento impugnato, ecc. (funzionalità già oggi attuate dai c.d. Modelli in Consolle), ma supportano anche la stesura della motivazione, proponendo al giudice – che mantiene la propria libertà decisionale sia sull’esito della causa sia sulla formulazione del testo della motivazione – “suggerimenti testuali” ovverosia parti di testo elaborate/selezionate dal sistema a seguito dell’individuazione di somiglianze e correlazioni tra gli elementi di fatto o di diritto oggetto di interrogazione e un determinato insieme di precedenti giurisprudenziali. In questi sistemi, innegabilmente, il giudice persona fisica mantiene il controllo sul processo decisionale e motivazionale, ben potendo rifiutare i “suggerimenti testuali” proposti, laddove non li condivida o non risultino pertinenti. I benefici in termini di velocizzazione della stesura della motivazione (e, quindi, di deposito del provvedimento), appaiono oggettivamente elevati. Così come elevato è, tuttavia, il rischio di “appiattimento” motivazionale sul precedente. Anche in questo caso, in definitiva, la formazione che obbligatoriamente dovrà essere impartita prima dell’eventuale introduzione a regime di questi sistemi (art. 4 dell’AI Act) svolgerà un ruolo fondamentale al fine di mantenere una adeguata capacità critica sugli output del sistema di IA.
4.5. Ulteriori ipotesi di impiego dell’IA “a sostegno” dell’attività del giudice sono quelle che consentono un controllo di coerenza logica degli argomenti utilizzati nella motivazione rispetto alla decisione finale . Si tratta di sistemi destinati a migliorare (anche sul piano della “tenuta” della decisione nei successivi gradi di giudizio) il prodotto di una attività interamente umana e per i quali, dunque, non sono state evidenziate criticità nel loro impiego anche da parte del giudice.
5. I sistemi di giustizia predittiva “ausiliaria” sono sistemi ad “Alto rischio”?
5.1. Quanto all’inquadramento dei sistemi di IA con funzione meramente ausiliaria nel quadro regolatorio dell’AI Act, data l’ampia formulazione dell’Allegato III cit. nella parte in cui include tra i sistemi ad alto rischio i “ sistemi di IA destinati a essere usati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie”, potrebbe ritenersi, in prima battuta, che anche i sistemi di IA con funzione di mera “ assistenza” nell’esercizio della funzione giurisdizionale siano qualificabili come sistemi ad “alto rischio”, ai sensi e per gli effetti degli obblighi previsti dall’AI Act. Si tratta, nella prospettiva di arginare gli elevati rischi per i diritti fondamentali che i sistemi ad alto rischio comportano, in sintesi: dell’obbligo di trasparenza del funzionamento, sì da consentire all’utilizzatore di interpretare l’output del sistema e utilizzarlo adeguatamente (art. 13 dell’AI Act); dell’obbligo della sorveglianza umana sul funzionamento del sistema da pare di operatori adeguatamente formati (art. 26, comma 2, dell’AI Act), in grado di interpretare correttamente l’output del sistema e di decidere, se del caso, di non usare il sistema di IA o di discostarsi dal suo output (art. 14 dell’AI Act); dell’obbligo di rispettare determinati standards di accuratezza, robustezza e cibersicurezza in fase di programmazione (art. 15 dell’AI Act); del diritto di qualsiasi persona che subisce gli effetti negativi sulla sua salute, la sua sicurezza o sui suoi diritti fondamentali, di una decisione assunta da un utilizzatore di un sistema di IA ad alto rischio sulla base dell’output di tale sistema, di ottenere “spiegazioni chiare e significative sul ruolo del sistema di IA nella procedura decisionale e sui principali elementi della decisione adottata” (art. 86 dell’AI Act).
5.2. Tuttavia, va notato che ex art. 6, par. 3, dell’AI Act , in deroga alle previsioni dell’Allegato III, non si considera ad “alto rischio” (e quindi non trova obbligatoria applicazione il regime sopra sintetizzato) un sistema di IA che non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, in quanto, in sintesi, non influenza materialmente il risultato del processo decisionale ma svolge operazioni procedurali limitate, o di controllo/miglioramento di una valutazione interamente umana. La deroga, tuttavia, non si applica quando un sistema di cui all’Allegato III effettua profilazione delle persone fisiche (evenienza che, per quanto precede, dovrebbe essere esclusa nell’ambito dell’amministrazione della giustizia, non potendosi ammettere una “decisione” in tutto o in parte automatizzata).
Si tratta, certo, di una valutazione che deve essere operata sistema per sistema, in particolare dal suo fornitore (art. 6, par. 4, dell’AI Act, con i conseguenti adempimenti procedurali).
Va, dunque, presa in considerazione l’ipotesi che i fornitori dei sistemi di IA di cui sopra si è detto li classifichino, in deroga all’Allegato III, come sistemi non ad alto rischio, trattandosi di sistemi che svolgono operazioni limitate nell’ambito del processo (art. 6, par. 3, lett. a dell’AI Act), di carattere preparatorio (art. 6, par. 3, lett. d, dell’AI Act) o comunque ausiliario e, quindi, non trattandosi di sistemi che sono in grado di sostituire o influenzare la decisione finale del giudice “precedentemente completata senza un’adeguata revisione umana” (art. 6, par. 3, lett. c dell’AI Act).
In questa prospettiva, sistemi di IA applicati a banche dati ai fini di ricerca giurisprudenziale o dottrinale potrebbero, forse, fare eccezione alla classificazione come “ad alto rischio”, in quanto attività meramente preparatoria rispetto alla decisione finale (art. 6, par. 3, lett. d). Analogamente a dirsi per i sistemi di IA di mera assistenza nella redazione della motivazione, che potrebbero essere inquadrati tra i sistemi di IA destinati ad eseguire “un compito procedurale limitato” (art. 6, par. 3, lett. a). Idem per sistemi di IA funzionali al controllo di coerenza della motivazione, che potrebbero essere inquadrati nella deroga di cui all’art. 6, par. 3, lett. d, che contempla sistemi destinati a “migliorare il risultato di un’attività umana precedentemente completata”.
Qualche perplessità potrebbe, invece, sollevarsi per i sistemi di giustizia predittiva che, sulla base dell’analisi di precedenti simili, “indichino”, anche in termini di risultati percentuali statistici degli esiti di precedenti similari, la soluzione di una specifica controversia. E’ ben vero che l’esclusione – che pare costituzionalmente necessitata – della decisione c.d. robotica implica che la decisione finale sarà sempre assunta da un giudice-persona fisica, e ciò comporta giocoforza la possibilità per il giudice di assumere una decisione diversa da quella, in ipotesi, indicata dal sistema. Tuttavia, è indubitabile che, in questi casi, l’effetto di condizionamento pare particolarmente inteso, sì che parrebbe preferibile mantenere questo sistema nella classificazione “ad alto rischio”, come sembrerebbe possibile concludere laddove si ritenesse che si tratta di un sistema che influenza una valutazione umana senza la possibilità di una adeguata revisione umana (parafrasando l’art. 6, par. 3, lett. c dell’AI Act). Ed invero, in questo caso, ai fini di una adeguata revisione, il giudice dovrebbe analizzare, una per una, tutte le sentenze prese in considerazione dal sistema per arrivare alla soluzione “indicata”, con un verosimile dispendio di tempo e di energie tale da rendere, a quel punto, paradossalmente controproducente l’impiego di quel sistema di IA.
5.3. La classificazione come “a basso rischio” di un determinato sistema di IA lo sottrae all’applicazione (obbligatoria) del regime dettato per i sistemi ad alto rischio e, dunque, in particolare, agli obblighi per fornitori e utilizzatori professionali, nonché ai diritti di informazione e spiegazione sopra sinteticamente enunciati. Si prevede, tuttavia, l’applicazione volontaria, in tutto o in parte, di tale regime, in sede di adozione di codici di condotta (art. 95 dell’AI Act). L’ufficio per l’IA costituito dalla Commissione UE e gli Stati membri dovrebbero svolgere, secondo l’AI Act, un ruolo propulsivo, di “agevolazione” dell’adozione di tali codici.
E’, invero, auspicabile che tali codici vengano adottati, in particolare con riferimento ai sistemi di IA destinati ad operare nell’amministrazione della giustizia, ancorchè con funzioni di mero ausilio, stante le verosimili incertezze nel distinguere un sistema che svolge compiti meramente preparatori e ausiliari da un sistema che, in realtà, influenza e condiziona la decisione, pur nella teorica non vincolatività per il giudice. La non corretta individuazione dell’effettivo livello di rischio potrebbe comportare un surrettizio abbassamento delle garanzie introdotte dall’AI Act.
In definitiva, anche laddove alcuni dei sistemi destinati all’amministrazione della giustizia in chiave ausiliaria siano classificati come “a basso rischio”, sarà di fondamentale importanza l’adozione volontaria di codici di buone pratiche per evitare un surrettizio vulnus ai diritti fondamentali dei destinatari dei provvedimenti giudiziali.
Verosimilmente attraverso tali codici, oltre che con la formazione, si potrà, altresì, agire per la diffusione di una cultura di approccio critico agli esiti dei sistemi di IA suscettibile di eliminare i rischi, come detto in parte non nuovi, legati sostanzialmente al recepimento acritico delle loro risultanze.
5.4. La classificazione di un sistema di IA come ad alto o basso rischio potrebbe avere incidenza anche nei rapporti tra giudici, avvocati e parti.
E’ ben vero che, per quanto sopra, parrebbero allo stato ammissibili solo sistemi di IA che integrino un ausilio, più o meno marcato, all’attività del giudice che mantiene – secondo il principio c.d. human in command – il controllo su tutte le fasi in cui eventualmente l’IA possa trovare impiego, con possibilità di revisione o non utilizzazione dell’output del sistema di IA. Tuttavia, va segnalato che, per i sistemi ad alto rischio, l’art. 26, par. 11 prevede che i “deployer” di sistemi di IA ad alto rischio di cui all’Allegato III “che adottano decisioni o assistono nell'adozione di decisioni che riguardano persone fisiche informano queste ultime che sono soggette all'uso del sistema di IA ad alto rischio”. La disposizione, dunque, prevede l’obbligo informativo anche in caso di sistemi “ad alto rischio” che “assistono” nell’adozione di decisioni riguardanti persone fisiche, formula molto ampia ma che potrebbe essere interpretata come inclusiva anche dei sistemi di IA utilizzati in funzione ausiliaria dell’attività giurisdizionale, se classificati ad alto rischio. Si tratterà, in tal caso, di comprendere chi sia il soggetto passivo dell’obbligo nell’amministrazione della giustizia (il deployer , come si è detto, è definito dall’art. 3, n. 4, dell’IA Act come “una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale”): il Ministero della Giustizia/il singolo giudice che sia posto nella condizione di scegliere di utilizzare il sistema di IA? Si tratterà, inoltre, in tale prospettiva, di comprendere come quest’ obbligo vada adempiuto (in via generale o in relazione al singolo processo in cui il sistema di IA sia stato impiegato?).
Laddove il sistema non sia classificato come ad alto rischio (e, come visto, potrebbe essere il caso dei sistemi che svolgono compiti procedurali limitati/accessori che non incidono sulla decisione finale), tale obbligo di informativa non risulta previsto.
Va, infine, segnalata la previsione dell’art. 50, par. 2, dell’AI Act che, nel caso di sistemi di IA che “generano contenuti… testuali sintetici” impone al deployer di rendere rilevabile la genesi artificiale del testo, escludendo al contempo da tale obbligo, per quanto di interesse (anche) nel processo del lavoro, i sistemi di IA che “svolgono una funzione di assistenza per l'editing standard o non modificano in modo sostanziale i dati di input forniti dal deployer o la rispettiva semantica”. Alla stregua di tale previsione sembra potersi escludere che i sistemi di IA di ausilio alla redazione della motivazione, oggetto dei sopra citati progetti sperimentali, rientrino nell’obbligo in esame.
5.5. Come già emerso, a livello nazionale non è stata ancora emanata una disciplina specifica sull’IA, ma è in corso di approvazione un disegno di legge recante “Disposizioni e delega al Governo in materia di intelligenza artificiale” che contiene anche una previsione in materia di “Utilizzo dell’intelligenza artificiale nell’attività giudiziaria” (art. 14). Nel testo ad oggi noto, il predetto art. 14 prevede: “1. I sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale. Il Ministero della giustizia disciplina l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari. Per le altre giurisdizioni l’impiego è disciplinato in conformità ai rispettivi ordinamenti.
2. È sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”.
Se questo è il testo che sarà definitivamente approvato, è possibile osservare che troverà espressa conferma, anche a livello di legislazione primaria, l’interpretazione costituzionalmente orientata in ordine al divieto di affidare, in tutto o in parte, la decisione delle cause a sistemi di IA. L’espressa previsione dell’utilizzo di sistemi di IA, oltre che per la ricerca giurisprudenziale e dottrinale con banche dati “potenziate”, per la “semplificazione del lavoro giudiziario” sembra aprire la strada all’utilizzo a regime anche di sistemi di IA che supportino il giudice nella redazione dei provvedimenti.
Sarà, tuttavia, importante che la fonte primaria specifichi la linea di confine tra decisione giudiziaria (che deve rimanere sotto il controllo dell’uomo) e “semplificazione del lavoro giudiziario”, individuando chiaramente gli ambiti in cui l’impiego dei sistemi di IA è vietato e quelli in cui è consentito, perché da questa distinzione dipenderà il grado di tutela dei diritti fondamentali che vengono in rilievo nell’esercizio della giurisdizione.
6. Cenni all’impiego dell’IA nell’amministrazione della giustizia in funzione organizzativa
6.1. Discorso verosimilmente meno complesso, ma non dissimile nella sua ratio di fondo rispetto a quanto precede, può essere svolto per l’impiego di IA nell’organizzazione degli Uffici e del lavoro giudiziario.
Anche in tale ambito vi sono numerosi progetti sperimentali che perseguono gli obiettivi della riduzione dei tempi dei processi e della riduzione/eliminazione dell’arretrato, cercando di sfruttare le potenzialità dell’IA per migliorare l’organizzazione del lavoro . Si tratta di sistemi di IA che consentono: - l’assegnazione automatizzata dei procedimenti con meccanismi che tengono conto della loro tipologia; - la “pesatura” dei fascicoli, che consente di valutare, al di là del mero dato relativo alle pendenze, l’effettivo carico di lavoro di un ufficio e del singolo magistrato non solo in funzione di una distribuzione più equa e calibrata dei fascicoli in sede di assegnazione e di fissazione delle udienze, ma anche in funzione di scelte organizzative relative alla distribuzione dei magistrati; - analisi dei flussi anche in chiave previsionale; - organizzazione del personale con simulazione di scenari organizzativi.
Si tratta di sistemi che non influiscono, né direttamente, né indirettamente, sulla decisione delle cause e, quindi, pare che non sussistano particolari problemi al loro legittimo utilizzo, in assenza di espressi divieti nella fonte primaria. Anzi, come si è visto, la legge in corso di approvazione prevede l’impiego di sistemi di IA nell’organizzazione giudiziaria.
6.2. Quanto alla loro classificazione (da cui discendono, come visto, importanti conseguenze in ordine al regime applicabile), si tratta di sistemi che, non comportando verosimilmente, in via generale, elevati rischi per la salute, la sicurezza e i diritti fondamentali, non sono stati indicati tra i sistemi ad alto rischio relativi all’amministrazione della giustizia di cui all’Allegato III del Regolamento, sopra testualmente riportato (in ogni caso, sempre rivedibile e aggiornabile dalla Commissione, v. art. 7 dell’AI Act).
Tuttavia, è dato rilevare che, in ipotesi specifiche, potrebbe accadere che il profilo organizzativo non sia neutro rispetto alla tutela di diritti fondamentali. Si pensi all’assegnazione delle cause a ciascun giudice secondo criteri predeterminati da tabelle, in funzione del rispetto del principio del giudice naturale precostituito per legge (art. 25 Cost. e art. 47 Carta dei diritti fondamentali UE): un sistema di IA per l’assegnazione delle cause che sia progettato in modo da non garantire il rispetto delle tabelle costituisce un vulnus per tale diritto fondamentale.
Del resto, il Considerando n. 61 dell’AI Act in proposito afferma: “Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudoanonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi”.
In tale prospettiva, un sistema di IA funzionale all’assegnazione automatica delle cause ai giudici non parrebbe attività amministrativa “puramente accessoria”, tenuto conto dei valori costituzionali sottesi a tale operazione.
Anche con riferimento a questi ed altri sistemi di IA che, pur destinati ad attività organizzative degli Uffici e del lavoro dei giudici, abbiano implicazioni sulla tutela di diritti fondamentali, l’eventuale classificazione come “a basso rischio” renderà oltremodo opportuna l’applicazione in via volontaria, attraverso adozione di codici di condotta, delle principali garanzie previste per i sistemi ad alto rischio, quali, per esempio, la trasparenza di funzionamento garantita in sede di progettazione, la spiegabilità dell’output, garanzie di affidabilità, robustezza e cibersicurezza dei sistemi.
7. Considerazioni di sintesi
La rapida evoluzione dei sistemi di IA, alcuni dei quali, peraltro, ad oggi già impiegati, ancorchè in via sperimentale, nell’amministrazione della giustizia, e il quadro normativo ancora in fieri, in attesa della emanazione della normativa italiana in tema di intelligenza artificiale, consentono la formulazione non di “conclusioni”, ma di, meno ambiziose, provvisorie considerazioni di sintesi.
L’IA ha enormi potenzialità che, se declinate in chiave antropocentrica, sono senz’altro suscettibili di porsi come veicolo di progresso ed efficienza anche nell’amministrazione della giustizia in generale e nel processo del lavoro in particolare, in chiave ausiliaria dell’esercizio dell’attività giurisdizionale e dell’organizzazione degli Uffici e del lavoro del giudice. Profili che incidono sul tempo che il giudice può dedicare alla decisione e, dunque, sulla qualità, oltre che sulla quantità di risposta di giustizia. Pare potersi escludere un impiego dell’IA in chiave sostitutiva del giudice, non solo per i limiti ordinamentali, ma anche per le strutturali difficoltà di ridurre il diritto ad elementi di calcolo, in considerazione della sua evidenziata essenziale dimensione umana. Se il giudice-persona fisica manterrà il controllo del processo decisionale, in tutte le sue tappe, difficilmente l’IA potrà costituire uno strumento di limitazione della sua discrezionalità interpretativa. Del resto, le ipotesi fisiologiche di “incertezza strutturale” possono rappresentare esse stesse, al pari della certezza del diritto, un valore nell’esercizio della giurisdizione, in termini di evoluzione dell’ordinamento giuridico, consentendone la migliore aderenza al contesto economico-sociale.
L’attuale quadro normativo in materia di IA offre già alcuni punti fermi, ma i punti interrogativi restano molti. E’, quindi, auspicabile, attesa la rilevanza dei valori in gioco, che il quadro normativo venga al più presto completato con una disciplina nazionale che, nel quadro dei principi desumibili dall’AI Act, dalle altre fonti sovranazionali e dalla Costituzione, definisca chiaramente gli ambiti in cui i sistemi di IA sono utilizzabili nell’amministrazione della giustizia, le caratteristiche di tali sistemi e i meccanismi di controllo, per un impiego dell’IA “sostenibile” anche nel nostro settore. E’ interessante notare che, con riferimento all’adozione di sistemi di intelligenza artificiale in materia di lavoro, l’art. 11 dello schema di disegno di legge in materia di Intelligenza artificiale, nel testo ad oggi noto, prevede l’istituzione di un Osservatorio presso il Ministero del Lavoro e delle Politiche Sociali con il compito di definizione di strategie sull’utilizzo dell’IA e anche di monitoraggio. Analoga previsione, eventualmente in sinergia tra Ministero della Giustizia e CSM, ciascuno per le rispettive sfere di attribuzioni, potrebbe ipotizzarsi nell’ambito dell’amministrazione della giustizia.
A fronte delle potenzialità di queste nuove tecnologie, non si giustifica, dunque, un rifiuto tout court, indiscriminato, del suo impiego per l’esistenza di rischi. Tali rischi vanno governati e gestiti dall’intelligenza umana, vietando l’uso dei sistemi di IA laddove i rischi siano inaccettabili e regolamentandone l’impiego negli altri casi. Piuttosto, sia in considerazione degli interessi di rilevanza costituzionale che vengono in rilievo, sia in considerazione degli incerti confini classificatori tra sistemi “ad alto rischio” e sistemi non ad alto rischio, soprattutto con riferimento a sistemi di IA che sono maggiormente idonei ad influenzare e a condizionare la decisione, sarebbe opportuna la generalizzata adozione di codici di condotta che estendano anche ai sistemi eventualmente classificati a basso rischio almeno alcune delle più importanti garanzie dettate dall’AI Act per i sistemi ad alto rischio, con particolare riferimento alla sicurezza e affidabilità dei sistemi e alla spiegabilità del loro output.
In definitiva, come è stato plasticamente scritto, anche nel nostro ambito “Solo l’intelligenza umana saprà guidare lontano dalle secche la nave tecnologicamente sempre più perfezionata ma inanimata dell’intelligenza artificiale” . L’IA è uno strumento nelle mani dell’uomo e l’uomo potrà trovare gli ambiti di un suo impiego sicuro per aiutare anche il giudice, come altre categorie professionali, a esercitare meglio le sue funzioni nell’interesse ad una giustizia che deve essere celere, prevedibile ma, per essere davvero giusta, deve restare umana.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.