testo integrale con note e bibliografia

1. Introduzione
Nel perseguimento dell’ambizioso obiettivo di guidare lo sviluppo dell’intelligenza artificiale (IA) a livello mondiale già nel dicembre 2018 l’Unione europea aveva predisposto un piano coordinato di settore atto a fungere da quadro strategico per lo sviluppo dei relativi programmi nazionali .
Conseguentemente, dal 2019 l’Italia ha predisposto e periodicamente aggiornato la propria strategia per l’IA, includendo tra i settori interessati da finanziamenti e sperimentazioni anche quello della giustizia .
In tale ottica il presente scritto affronta il tema dell’impiego di applicativi di IA in tale contesto.
Più nello specifico, la disamina muovendo da una riflessione sul metodo d’investigazione delle problematiche giuridiche relative all’IA, pone e sviluppa alcune questioni relative alla disciplina di tale tecnologia nel settore dell’amministrazione della giustizia alla luce del Regolamento (UE) 2024/1689(AI Act) e del d.d.l. “Intelligenza artificiale”.
2. Brevi divagazioni di metodo
Correntemente lo sviluppo dell’IA viene avvertito come parte di una vera e propria rivoluzione non solo tecnologica, ma anche economica, politica, sociale e culturale .
Proprio per tale ragione gode dell’attenzione tanto degli addetti ai lavori quanto degli esperti di altre branche del sapere, tra i quali anche i giuristi.
L’interesse del diritto per tale fenomeno può essere ricondotto principalmente a due problematiche generali: come regolare l’IA e come utilizzarla per svolgere attività lato sensu giuridiche .
Dunque, trattasi di temi rispettivamente attinenti ai campi di indagine del diritto dell’informatica e dell’informatica giuridica, i quali sebbene formalmente distinti risultano inevitabilmente interconnessi .
Proprio da tale collegamento sorge il tema della presente disamina che attiene alla regolazione di applicativi informatici impiegati nell’ambito dell’amministrazione della giustizia.
L’interesse all’impiego dell’IA nel settore de qua deriva dalla capacità di tale tecnologia di elaborare dati al fine di adottare decisioni (data-driven decision) e risolvere problemi (problem solving) e, dunque, dalla possibilità di utilizzarla in funzione sostitutiva o ausiliaria dell’autorità giudiziaria .
Tuttavia, un simile impiego dell’IA pone non pochi interrogativi di natura giuridica.
Da un punto di vista logico, discorrere delle conseguenze normative dell’utilizzo dell’IA in uno specifico settore presuppone una riflessione sulla fattibilità e sull’opportunità di tale impiego nel contesto di riferimento.
Così, ad esempio, discorrere della costituzionalità dell’istituzione di “giudici-robot” si scontra innanzitutto con argomenti tanto sulla sua inopportunità, quanto, ancora più a monte, con la sua infattibilità, in quanto un algoritmo capace di replicare tutte le attività cognitive coinvolte nell’espletamento delle funzioni giurisdizionali non potrebbe che assumere i connotati di una weak AI estremamente sofisticata, se non di una strong AI .
In altri termini, la conoscenza del singolo algoritmo (o tipologia di algoritmo) di IA che si intende applicare in un determinato settore appare imprescindibile ai fini di poterne trarre tutte le conseguenze giuridiche del caso.
Conseguentemente, a meno di non voler virare verso il piano della filosofia, una riflessione tesa ad evidenziare astrattamente i problemi giuridici relativi ad ipotetici impieghi in un dato settore dell’IA deve almeno prendere in considerazione che: non tutte le attività umane sono suscettibili di essere sostituite da un algoritmo; non ogni attività informatizzabile può necessariamente essere svolta al meglio con l’IA; non sempre esistono i dati necessari per addestrare a regola d’arte il modello .
Su di un diverso piano si colloca, invece, la presente disamina che, essendo volta ad affrontare i problemi interpretativi relativi all’applicazione dell’AI Act, non può che muoversi su di un piano strettamente normativo.
3. La classificazione dei sistemi di IA nell’AI Act
In seguito ad un travagliato iter legis della durata di oltre tre anni il 13 giugno 2024 il Parlamento europeo e il Consiglio hanno approvato l’AI Act .
A fronte dei diversi modelli di regolamentazione astrattamente ipotizzati, il regolamento persegue l’obiettivo di disciplinare il mercato dell’IA secondo un approccio basato sul rischio . In termini pratici, l’AI Act modula la disciplina dell’IA in relazione al livello di pericolo per i diritti fondamentali, restituendo una quadripartizione in sistemi che comportano: un rischio inaccettabile e perciò vietati (Capo II); un rischio alto e dunque ammissibili solo al rispetto di certi requisiti (Capo III); un rischio limitato e quindi sottoposti a puntuali obblighi di trasparenza (Capo IV); un rischio basso e quindi volontariamente subordinabili alle prescrizioni dei codici di condotta (Capo X).
Infine, apposite disposizioni (Capo V) sono dettate per i modelli di IA per finalità generali (GPAI), in quanto, potendo eseguire anche compiti diversi e ulteriori rispetto a quelli predeterminati al momento della programmazione (art. 3, par. 1, n. 63, AI Act), sfuggono ad una valutazione, a monte, del livello di rischio .
4. I sistemi di amministrazione della giustizia nell’AI Act e nel d.d.l. “Intelligenza artificiale”
Sebbene l’impianto normativo dell’AI Act presupponga una valutazione casistica ancorata alle precipue caratteristiche di un determinato modello di IA ai fini dell’inquadramento dello stesso all’interno di una delle categorie di pericolo, il legislatore europeo ha ritenuto necessario, nell’ottica della massima tutela dei consumatori, qualificare espressamente come “ad alto rischio” i sistemi di IA impiegati nei settori tassativamente elencati nell’Allegato III dell’AI Act (art. 6, par. 2), tra i quali troviamo proprio quello dell’amministrazione della giustizia.
Più nel dettaglio, devono considerarsi di amministrazione della giustizia:
«i sistemi di IA destinati a essere usati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie» (Allegato III, n. 8, lett. a), AI Act) ovverosia allorquando gli esiti dei relativi procedimenti producano effetti giuridici per le parti (considerando 61, AI Act).
Pertanto, se un sistema di IA persegue la «finalità prevista» in tale disposizione ed è dotato della capacità di perseguirla , dovrà presumersi la sua elevata pericolosità .
Trattasi, tuttavia, di presunzione relativa in quanto l’art. 6, par. 3, co. 1, prevede che: «un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale».
Più nel dettaglio, il co. 2 stabilisce che non presentano un rischio significativo quelle IA programmate per: a) eseguire un compito procedurale limitato; b) migliorare il risultato di un'attività umana precedentemente completata; c) rilevare schemi decisionali o deviazioni da schemi decisionali precedenti senza sostituire o influenzare la valutazione umana precedentemente completata senza un'adeguata revisione umana; d) a eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d'uso elencati nell'Allegato III.
Dunque, al verificarsi di una di tali condizioni verrà meno la presunzione di alto di rischio di un’IA con task di amministrazione della giustizia, a meno che non svolga attività di profilazione personale, la quale realizza in ogni caso un rischio elevato (art. 6, par. 3, co. 3).
La ragione della previsione di una simile presunzione deve ricondursi all’esigenza di fronteggiare gli eventuali pericoli derivanti da distorsioni, errori e opacità di algoritmi dall’impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale .
Conseguentemente, il legislatore europeo non ha ritenuto opportuno ricomprendere nella definizione i sistemi di IA destinati ad attività amministrative puramente accessorie ovverosia non incidenti sull'effettiva amministrazione della giustizia nei singoli casi, come, ad esempio, l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi (considerando 61, AI Act).
La classificazione delle IA de qua come sistemi ad alto rischio non inibisce né la stessa Unione europea né gli Stati membri a vietarne l’utilizzo (considerando 63, AI Act).
Proprio in ragione di ciò, il legislatore nazionale si è orientato nella direzione di limitare i possibili impieghi dell’IA nel settore.
Più nel dettaglio, il disegno di legge n. 1146 — presentato al Senato della Repubblica il 10 maggio 2024 e recante “Disposizioni e delega al Governo in materia di intelligenza artificiale” — prevederebbe la possibilità di impiegare nell’attività giudiziaria esclusivamente IA sviluppate per eseguire task di organizzazione e semplificazione del lavoro giudiziario, nonché di ricerca giurisprudenziale e dottrinale (art. 14, co. 1) . In altri termini, verrebbe fatto divieto di ricorrere ad algoritmi riconducibili alla c.d. “giustizia predittiva .
Il secondo periodo della disposizione rimetterebbe al Ministero della giustizia la definizione della disciplina dell’impiego di siffatti algoritmi da parte degli uffici giudiziari ordinari, mentre la competenza per la giurisdizione amministrativa e contabile spetterebbe rispettivamente al Consiglio di Presidenza della Giustizia amministrativa e alle Sezioni riunite della Corte dei conti .
Inoltre, con una disposizione priva di qualunque portata innovativa per l’ordinamento giuridico, si precisa che rimane ferma la competenza esclusiva dei magistrati per quanto attiene all’ interpretazione della legge, alla valutazione dei fatti e delle prove, nonché all’adozione di ogni provvedimento. Evidentemente, trattasi di disposizione dalla portata meramente simbolica, atteso che l’impiego dei citati sistemi di IA non modificherebbe in alcun modo il ruolo del giudice né sul piano costituzionale, né sostanziale, né tantomeno processuale. Al più la stessa potrebbe essere volta a ribadire, a scanso di equivoci, la responsabilità del magistrato per decisioni adottate avvalendosi del supporto dell’IA.
Dunque, come conseguenza dell’eventuale entrata in vigore del d.d.l. n. 1146, le IA impiegabili nel settore dell’amministrazione della giustizia italiano sarebbero unicamente quelle non automaticamente ricomprese all’interno della categoria dei sistemi ad alto rischio.
4.1. Amministrazione della giustizia e GPAI
L’inserimento delle IA nel settore dell’amministrazione della giustizia nell’Allegato III non presentava specifici problemi interpretativi nella proposta di Regolamento del 21 aprile 2021 , la quale era stata elaborata in un momento storico in cui al mercato dell’IA erano ignote le GPAI.
Proprio l’ingresso nel mercato dei large language models “Chat Gpt” (2022) e “Gemini” (2023) ha costretto le istituzioni europee a modificare l’impianto originario dell’AI Act onde evitare l’entrata in vigore di una disciplina già obsoleta sul nascere .
Allo stesso tempo, la presenza nell’apparato dell’AI Act di una disciplina dedicata alle GPAI impone una interpretazione sistematica delle disposizioni rilevanti per le IA impiegate nell’amministrazione della giustizia.
In altri termini, bisogna interrogarsi su quale disciplina debba applicarsi ad un sistema di GPAI impiegato in tale contesto.
Per addivenire ad una soluzione interpretativa, innanzitutto, appare utile evidenziare la distinzione sussistente tra sistema di IA e modello di IA.
Un modello di IA è un algoritmo (o una serie di algoritmi) addestrato su un dataset per riconoscere modelli, fare previsioni o prendere decisioni; mentre un sistema di IA è un insieme di componenti, tra cui lo stesso modello di IA, preordinato allo svolgimento di un compito specifico.
Come conseguenza di ciò il Regolamento distingue tra: sistema di IA, modello GPAI e sistema di GPAI.
Il primo consiste in «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali» (art. 3, par. 1, n. 1, AI Act) .
Il secondo è «un modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l'autosupervisione su larga scala, che sia caratterizzato [da] una generalità significativa e sia in grado di svolgere con competenza un'ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di IA utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato» (art. 3, par. 1, n. 63, AI Act).
Il terzo costituisce sempre un sistema di IA, ma basato su un modello di IA per finalità generali e, quindi, dotato della capacità di perseguire varie finalità sia direttamente che integrando altri sistemi di IA (art. 3, par. 1, n. 66, e considerando 100, AI Act).
Sulla base di tali definizioni l’AI Act, come già anticipato, diversifica la disciplina giuridica applicabile, prevedendo da una parte i requisiti dei sistemi di IA (Capi II-IV) e dall’altra gli obblighi per i fornitori di modelli di IA per finalità generali (Capo V).
Più nel dettaglio, le disposizioni relative ai sistemi di IA dipendono dal contesto di utilizzo del sistema, mentre la disciplina del Capo V si applica al modello in sé, indipendentemente dall’effettivo utilizzo finale.
La necessità di una disciplina apposita per i GPAI rappresenta una conseguenza della circostanza che i fornitori di tali modelli non possono considerarsi fornitori di un sistema di IA di cui è possibile valutare il livello di rischio, stante l'assenza di un loro scopo predeterminato. Ciò non significa che possano svolgere qualsiasi compito, ma al più che le stesse non sono programmate per apprendere e adattarsi a una varietà di compiti diversi quantunque selezionati.
Evidentemente, seppur distinte, le due discipline finiscono con l’interagire in diverse situazioni, come nel caso di commercializzazione di un sistema di GPAI.
Al fine di comprendere quale sia la disciplina applicabile è necessario distinguere la posizione del fornitore da quella degli altri soggetti coinvolti nella catena del valore dell’IA.
Così, se un fornitore integra un modello di GPAI in un sistema di IA immesso nel mercato, dovrà rispettare tanto delle disposizioni del Capo V, quanto quelle dei Capi II-IV (considerando 97, AI Act).
Nel diverso caso in cui un fornitore si limiti a commercializzare un modello di GPAI e siano, invece, un distributore, un importatore, un deployer o altro terzo a modificarne la finalità in modo da integrare i requisiti di cui all’art. 6, questi ultimi soggetti saranno tenuti agli stessi obblighi che l’art. 16 impone ai fornitori di sistemi ad alto rischio (art. 25, par. 1, lett. c) e considerando 85, AI Act).
Tuttavia, nell’ottica di garantire un'equa ripartizione delle responsabilità lungo la catena del valore dell'IA (considerando 85, AI Act) il fornitore che ha inizialmente commercializzato il modello di GPAI, sebbene non venga più considerato tale, sarà comunque tenuto a cooperare con chi ne ha modificato la finalità, fornendo le informazioni necessarie, l'accesso tecnico ragionevolmente atteso nonché qualsiasi altra forma di assistenza necessaria per l'adempimento degli obblighi di cui al Capo III, a meno che non abbia chiaramente specificato di opporsi a che il proprio modello venga trasformato in un sistema del genere (art. 25, par. 2, AI Act).
Alla luce dell’esame delle pertinenti disposizioni dell’AI Act è possibile avanzare una soluzione per il quesito iniziale.
I sistemi di IA, indipendentemente dalla circostanza che si basino su modelli per finalità generali, laddove impiegati nel settore dell’amministrazione della giustizia ricadono nella presunzione di “alto rischio” di cui all’art. 6, par. 2, del Regolamento, salve le ipotesi di funzioni amministrative ausiliari alla giurisdizione e di assenza di un “rischio significativo”.
Tuttavia, muta la consistenza degli obblighi in capo al fornitore del modello di GPAI a seconda che sia egli stesso o altro operatore a integrarlo in un sistema di IA.
Il che non appare circostanza irrilevante atteso che nel settore in analisi il deployer sarà sempre l’autorità giudiziaria e il ruolo di fornitore potrebbe anche essere svolto dalla p.a.
5. Conclusioni
L’impianto normativo dell’AI Act rivela una sfiducia di fondo nei confronti dell’impiego dell’IA nel settore dell’amministrazione dalla giustizia.
Al netto delle pratiche vietate , si presume che tali algoritmi realizzino un rischio elevato, a meno che non svolgano attività amministrative strumentali alla giurisdizione o che sia possibile dimostrare che non realizzino un rischio significativo.
Sulla scorta di questo sentimento anche il legislatore nazionale ha manifestato con maggiore nettezza la diffidenza verso tali strumenti prevedendo di vietare gli applicativi di “giustizia predittiva” per mezzo del d.d.l. c.d. “Intelligenza artificiale”.
Indipendentemente dall’entrata in vigore d.d.l., specifiche difficoltà interpretative si pongono già a livello di normazione sovranazionale.
Nello specifico, la disamina ha affrontato il problema della disciplina applicabile ai sistemi di GPAI impiegati nel settore dell’amministrazione della giustizia, concludendo che anche nei confronti di queste ultime trovano applicazione le regole generali valevoli per i sistemi di IA ad alto rischio, così da garantire la massima tutela possibile per i diritti dei cittadini.
Al momento in cui si scrive, appare molto vago quali siano concretamente gli algoritmi di IA di cui il Ministero della giustizia e il C.S.M. intendano avvalersi per l’amministrazione della giustizia italiana , circostanza che confina le riflessioni del tipo che qui si propone su di un piano strettamente normativo.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.