TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA

1. La rapida evoluzione degli strumenti basati sull’ Intelligenza Artificiale (IA): da ipotesi futura a supporti già in uso negli ambienti di lavoro
I software e chatbot che utilizzano l’intelligenza artificiale generativa, basati su reti neurali profonde e Large Language Models (LLMs), hanno conosciuto uno sviluppo molto rapido negli ultimi anni. Si veda la seguente breve cronologia:
• 2012: Progettazione di AlexNet che rappresenta un avanzamento decisivo nel riconoscimento automatico di immagini.
• 2014-2016: Progettazione di AlphaGo da parte dell’inglese DeepMind (controllata da Alphabet/Google), un software basato su reti neuronali profonde, con la funzione di giocare a Go, un antico gioco originario dell’Asia orientale, molto più complesso degli scacchi. Nel 2016 AlphaGo batte per 4 a 1 il campione sudcoreano Lee Se-Dol.
• 2022, novembre: la società OpenAI diffonde ChatGPT, un potente ChatBot basato su linguaggio naturale (Large Language Model – LLM, e quindi non basato su simboli), dove GPT sta per Generative Pre-trained Transformer.
• 2024: viene lanciato ChatGPT4, Se GPT-3.5 era un modello addestrato con oltre 175 miliardi di parametri si dice che GPT-4 sia stata addestrata con 500 volte questo numero; i rumors segnalano che il nuovo modello GPT 4 sia stato addestrato su circa 570 GB di dati testuali, pari a circa 300 miliardi di parole, così da limitare gli errori, ottenere maggiore capacità di produrre e utilizzare testi lunghi o anche materiale grafico. Nello stesso anno sono resi disponibili diversi Chatbot basati su IA: Claude, CoPilot, Gemini, Mistral, Operator, sviluppati dalle cosiddette BigTech (Meta, Alfabeth/Google, Microsoft, Amazon, etc.).
• Inizio 2025: presentazione di DeepSeek R1, chatbot sviluppato in Cina, che secondo i produttori è stato messo a punto con tecnologia meno sofisticata rispetto a prodotti USA (a causa dell’embargo USA verso la vendita alla Cina di processori avanzati prodotti da imprese statunitensi) e con minori risorse. Sempre ad inizio 2025, OpenAI annuncia la versione o5 di ChatGPT, così come xAI presenta il nuovo prodotto Grok3. L’Unione Europea a sua volta prevede un investimento di circa 200 miliardi di euro per recuperare competitività nel settore.
Nello stesso tempo, è opportuno precisare che con il termine ‘IA’ si fa riferimento a diverse applicazioni. Ad esempio, l’intelligenza generale generativa è utilizzata per assistenti virtuali che realizzano immagini, video, musica e audio, scrittura virtuale e attività creative, ecc.; che codificano e sviluppano software; e ancora, opera per mezzo di sistemi di Natural Language Processing, nel campo delle traduzioni automatiche, sintesi vocali, nella sentiment analysis monitorando social media, recensioni, ecc. Inoltre, ampio è l’ambito del Machine Learning e Deep Learning, utilizzato ad esempio in medicina e diagnostica, nelle previsioni finanziarie, nei sistemi di riconoscimento facciale e biometrico, nella guida autonoma degli autoveicoli. Nel settore della Computer Vision le applicazioni riguardano l’analisi di immagini per la diagnostica in medicina, l’assistenza alla guida e i veicoli autonomi, la videosorveglianza, ecc. In forte espansione è la robotica, specie quella industriale, ma anche quella spaziale, per gli interventi medico-chirurgici, così come nei servizi (es. robot camerieri, ecc.) (cfr. ad es. Suleyman 2024; Summerfield 2025).

Si tratta di un insieme di apparati in rapidissima evoluzione, che implica una altrettanto veloce azione da parte delle organizzazioni del settore pubblico, poiché il ricorso a questa tecnologia appare inevitabile se si considerano le aspettative sulla capacità di sostituire in modo efficiente e qualificato il lavoro umano in molte attività, specialmente quelle di tipo ripetitivo (ma non solo); e, in ogni caso, le pressioni esterne da parte di imprese e collettività saranno consistenti affinché l’amministrazione pubblica – compreso il settore giudiziario – utilizzi questi sistemi.
Il ricorso a questo tipo di soluzioni tecnologiche richiede in ogni caso un’attenta riflessione perché quello che è stato chiamato ‘governo algoritmico’ ed anche ‘terza ondata della digital era governance’ (Mejer et al. 2021; Dunleavy & Margetts 2023) realizzi, perlomeno in parte, le aspettative riposte.
Nonostante alcune posizioni mettano, opportunamente, in guardia dall’eccesso di ottimismo e richiamino l’attenzione su un utilizzo della IA per migliorare la vita delle persone e orientato a creare posti di lavoro e non a diminuirli (es. Acemoglu and Johnson 2023), le aspettative su una serie di settori appaiono basate su elementi fondati. In primo luogo, potrebbero essere ottenuti miglioramenti sensibili in tutte le attività di tipo routinario e semplice, come la gestione di email e posta certificata; oppure quale supporto alle decisioni che riguardino il tipo di servizio più idoneo rispetto ai bisogni degli utenti. Ad esempio, Inps utilizza già il machine learning per smistare i messaggi ricevuti dai cittadini ai vari dipartimenti; oppure nei centri per l’impiego è in fase di sperimentazione un algoritmo per associare al profilo dei richiedenti i percorsi di attivazione al lavoro più coerenti. Presso gli uffici legislativi di Camera e Senato, così come di alcune regioni, sono utilizzati algoritmi di IA per gestire gli emendamenti e le diverse versioni dei testi legislativi, per la classificazione automatica dei documenti, per il riconoscimento automatico del parlato, per l’attribuzione automatica del contenuto dei documenti ai settori e alle principali classi di identificazione semantica, per la classificazione delle risposte ricevute nel caso di consultazioni su progetti normativi, ecc. In campo fiscale è in corso la sperimentazione di un sistema per l’analisi di coerenza delle dichiarazioni. Nel sistema giudiziario è in corso la sperimentazione di sistemi di ricerca documentale basati su data lake e su chatbot come ChatGpt, che possono permettere il recupero di qualsiasi tipo di materiale documentale e di giurisprudenza in tempi rapidi e con una precisione superiore rispetto alle precedenti modalità; si pensi, inoltre, all’utilizzo di sistemi di riconoscimento biometrico (es. riconoscimento facciale) utilizzati negli aeroporti ma non solo (cfr. Leonardi e Boscaro 2024).

2. L’IA nel settore giudiziario: oltre la giustizia predittiva, l’utilizzo a supporto del lavoro del giudice
Una gran parte del dibattito sul ricorso a strumenti basati sull’intelligenza artificiale generativa è stato dedicato alla giustizia predittiva e al ricorso agli algoritmi per decisioni che sostituiscono in parte o completamente il ruolo del giudice. Ad esempio, gli strumenti utilizzati per predire il rischio di recidività di un soggetto e definire, su questa base, la detenzione o misure meno restrittive; oppure, il robot-giudice utilizzato per cause semplici. E i commentatori hanno sottolineato sia le distorsioni che caratterizzano le risposte degli algoritmi, sia l’assenza di trasparenza nel modo in cui operano questi strumenti nell’arrivare alle risposte. Da un lato, il modo in cui gli algoritmi sono addestrati e la documentazione cui fanno riferimento, influenzano le risposte che, in diversi casi, contengono inaccuratezze e pregiudizi di genere, etnia, ecc. Dall’altro lato, il procedimento di tipo probabilistico e statistico degli algoritmi non consente di ricostruire a ritroso la selezione delle fonti utilizzate e i passaggi logici che dagli input (prompt) conducono all’output. Inoltre, e non meno importante, viene particolarmente evidenziato che il giudice opera e decide considerando molti fattori, tra cui ad esempio il contesto e la salienza degli eventi, così come l’evoluzione della cultura collettiva, utilizzando gli spazi di discrezionalità permessi dalle norme. Sui rischi di un ricorso acritico agli algoritmi di IA nel settore giudiziario, così come in altri ambiti, è intervenuta il Parlamento europeo con l’EU Artificial Intelligence Act approvato nel 2024, che qualifica, appunto, ‘alto’ il rischio portato dai sistemi di AI se utilizzati da un’autorità giudiziaria, o da altri per suo conto, per determinate funzioni, per cui viene richiesta una specifica valutazione di conformità (si veda l’allegato III, punto 8).
Tuttavia, è stato sottolineato, esiste anche un utilizzo ‘noioso’ dell’IA (Quintarelli 2025) e cioè un utilizzo a supporto del lavoro del magistrato che non incrocia, se non parzialmente, le criticità sopra discusse, pur se rimane importante l’attenzione alle sempre possibili ‘allucinazioni‘ (e cioè a risposte non giustificata dalla document base utilizzata in quanto insensate), e alle risposte errate oppure incomplete. In questo senso, si parla sempre di un utilizzo supervisionato e monitorato.

3. Un progetto presso la Corte d’Appello di Milano
Un progetto, in particolare, è in corso presso la Corte d’Appello di Milano, a cura del Consorzio Interuniversitario Cini, nell’ambito del Progetto DataLake Giustizia, con la collaborazione del Politecnico di Milano. L’idea di fondo è quella di supportare, con riferimento – per ora – ai procedimenti civili, il giudice relatore nella ricerca della documentazione necessaria per la preparazione della relazione da discutere in camera di consiglio, comprese le annotazioni utili per poi utilizzare il materiale in fase di elaborazione della sentenza. L’obiettivo è, evidentemente, quello del risparmio di tempo accanto alla verifica di completezza della documentazione, compresa anche l’opportunità di di sentenze coerenti perlomeno con riferimento agli orientamenti assunti dall’ufficio di appartenenza.
La ricerca/intervento ha innanzitutto analizzato la situazione ‘as is’ e cioè ha ricostruito le modalità di lavoro del giudice nel corso delle diverse fasi, attraverso interviste individuali e l’osservazione partecipata affiancando alcuni magistrati (di tre diverse sezioni) nel corso del loro lavoro di ricerca della documentazione.
Attualmente, e per sommi capi, il giudice civile di appello avvia la ricerca di elementi rilevanti della documentazione presentata dalle parti (documentazione e sentenza di primo grado, gli atti introduttivi del ricorso), finalizzata alla ricostruzione degli elementi di prova; e poi procede alla ricerca della giurisprudenza di merito (la giurisprudenza dei tribunali ordinari e delle altre corti d’appello), della giurisprudenza della Cassazione e eventualmente articoli di dottrina. In alcuni casi può essere necessario individuare documentazione relativa alla giurisprudenza europea o e di altri Paesi.
La documentazione di primo grado è collocata in SICID e nell’applicativo Consolle. Per la giurisprudenza, oltre a Consolle, si fa ricorso alle banche dati presenti nel sito della Scuola superiore della magistratura, che però sono accessibili singolarmente (non dialogano tra di loro) attraverso parole-chiave. Lo stesso per l’archivio della Corte di Cassazione. La Banca dati di merito messa a punto dal Ministero della giustizia è un’altra importante risorsa, attualmente in fase di completamento, con modalità di ricerca basate su IA; in alternativa, la ricerca della giurisprudenza di merito viene ricercata nei siti dei tribunali, nella dottrina, oppure utilizzando motori di ricerca (es. Google). Rilevanti sono le raccolte di sentenze messe a punto individualmente dal magistrato, oppure organizzate a livello di sezione dell’Ufficio di appartenenza.
Il materiale raccolto viene poi gestito i file MS Word, con le relative annotazioni.


Fonte: Batini 2025

I problemi in termini di efficienza sono dovuti:
• la ricerca delle parti significative del processo di primo grado è condizionata dal tipo di formato dei file, a volte centinaia di pagine in formato pdf non editabile e che non permette l’individuazione di specifiche parole o frasi; per cui spesso si tratta di guardare tutto il materiale e trarre da questi in modo ‘artigianale’ le parti di interesse;
• le banche dati messe a disposizione dalla Scuola superiore della magistratura sono consultabili solo individualmente, non sono integrate tra loro;
• la ricerca per parole-chiave e per menù di frasi non sempre propone una indicizzazione coerente e veloce da gestire;
• alcune fonti non sono presenti (es. contratti collettivi di lavoro, per i processi relativi a quell’ambito) e una prima rilevazione viene effettuata mediante i motori di ricerca.

La proposta di fondo è quella di utilizzare sistemi di IA per supportare il giudice in questa fase di ricerca e di analisi. L’Università Bicocca sta lavorando ad un applicativo specifico, ma considerata la velocità di evoluzione delle chatbot basate su LLM, si sta procedendo alla sperimentazione dell’ultima versione di ChatGPT, quale base per possibili altri strumenti. L’obiettivo è quello di Introdurre diverse operazioni, comandi, semantiche, ecc. che, arricchendo la Consolle, l’Agenda, i modelli e gli altri servizi del PCT, possono essere utilizzati dal giudice relatore (e dagli assistenti) per l’attività preparatoria del dibattimento e della elaborazione della sentenza, compresa l’ analisi della completezza e coerenza con gli atti del procedimento, secondo un approccio ‘human in the loop’, secondo cui il controllo delle attività rimane sempre nelle mani dell’essere umano (si direbbe con una locuzione nota, un approccio per cui l’agente umano ha sempre la facoltà di staccare la spina; si veda Weizenbaum 1976).

Fonte: Batini 2025

Un passaggio fondamentale in questa direzione è la mappatura del percorso logico che caratterizza le diverse operazioni che il giudice realizza per arrivare alla sentenza, al fine di associare le diverse potenzialità della IA, attraverso i comandi/domande (prompt). Ad esempio, i seguenti comandi:

1. Cerca (la tradizionale cerca arricchita con ChatGPT)
2. Calcola (una operazione di conteggio, di somma, ecc.)
3. Sintetizza/Riassumi (esprimi a minor livello di dettaglio,
misurato dal numero di parole da usare)
4. Estrai/Classifica (dal testo il suo significato)
• Struttura semantica del documento
• Sillogismo
• Percorso logico
5. Confronta (trova similitudini e differenze su)
• Struttura semantica del documento
• Sillogismo
• Percorso logico
6. Valuta (ad esempio la rilevanza di un argomento, sentenza
cassazione, ecc. nella decisione finale=
7. Verifica correttezza delle decisioni
8. Espandi (esprimi a minor livello di dettaglio)
9. Esplora (entità e concetti in documento/documenti)
10. Collega come ipertesto, collega due (entità, concetti,
frasi, documenti)
Fonte: Batini 2025.

Più precisamente, si tratterà di sviluppare sistemi di prompt engineering (e cioè di domande specifiche) al fine di migliorare le risposte della IA che, come è noto, possono essere diverse in relazione alle parole e alle frasi che compongono una domanda; ad esempio:

Cerca riferimenti a precedenti di cassazione della sentenza di primo grado ed estrai citazioni
Cerca riferimenti a precedenti di cassazione della sentenza di primo grado successive al 2015
Cerca riferimenti a precedenti di cassazione della sentenza di primo grado e del ricorso di secondo grado, estrai e confronta citazioni
Estrai sillogismo della sentenza di primo grado
Estrai sillogismo della sentenza di primo grade e della bozza della sentenza di secondo grado e confrontali
Riassumi ricorso di secondo grado e memoria di secondo grado con meno di mille parole
Estrai percorso logico della sentenza di primo grado e precedenti di merito citati nei vari passaggi logici
Fonte: Batini 2025.

Come si può intuire, le prospettive di utilizzo sono rilevanti e le sperimentazioni promettenti, pur se la sperimentazione dovrà valutare i risultati in termini di accuratezza (vicinanza al valore vero), completezza (recupero di tutto ciò che viene chiesto), efficienza (tempo risparmiato in comparazione con le modalità attuali) e utilità/efficacia (aderenza alle esigenze del giudice). Inoltre, ovviamente, si dovrà analizzare l’aspetto della governance complessiva, e cioè delle regole per la gestione della tecnologia in termini di trasparenza, monitoraggio e accountability in relazione ai potenziali rischi (cfr. Gutiérrez 2023; Mark et al. 2023)
La capacità performativa dell’IA è un tassello fondamentale, ma può non essere l’unico fattore da considerare nell’ottica di un suo utilizzo sistematico nelle organizzazioni pubbliche e, in questo caso, nel settore giudiziario. Infatti, si tratta di considerare anche i fattori che caratterizzano le dinamiche organizzative e le relazioni con il mondo esterno, tra cui quello degli utenti professionali e non professionali. A questo tema è dedicato il paragrafo che segue.

3. Governare l’introduzione dell’IA nella giustizia: l’organizzazione come sistema sociotecnico
La decisione di utilizzare i software di IA nella giustizia deve tenere conto non solo dei fattori di applicabilità e di utilità, ma anche di quelli tipici dei contesti organizzativi.
Come sappiamo, non è scontato che l’introduzione di infrastrutture e tecnologia porti automaticamente al loro utilizzo ottimale e al miglioramento di funzioni e servizi. Le organizzazioni sono sistemi sociotecnici e cioè un insieme di relazioni tra umani, macchine e cultura organizzativa:


Fonte: elaborazione dell’autore tratta da Vigoda-Gadot et al. 2024

La figura rappresenta l’insieme delle relazioni di cui è necessario tenere conto nei progetti e processi di digitalizzazione e di introduzione di strumenti di IA.
Innanzitutto, si tratta di comprendere che la strumentazione tecnologica ha a che fare con i compiti e le competenze del personale coinvolto, per cui è necessario comprendere quali capacità è necessario sviluppare e quali resistenze si tratta di superare.
In secondo luogo, la tecnologia modifica le relazioni tra gli attori all’interno delle organizzazioni, poiché elimina posizioni e ne crea altre, trasforma le interazioni e i ruoli. Ad esempio, il ricorso agli algoritmi in alcuni casi può limitare la discrezionalità degli operatori nelle relazioni con gli utenti, spostando questo potere nelle mani di chi definisce i criteri sui gli algoritmi si basano.
In terzo luogo, l’introduzione della IA interagisce con la cultura organizzativa di una amministrazione, mettendo in tensione le capacità complessive, l’apertura all’innovazione, la presenza di leader di progetto; si pensi all’esigenza di interazione con soggetti esterni portatori di un nuovo linguaggio tecnico; alla necessità di prestare attenzione alle continue e rapide novità emergenti dal mondo digitale, cosa che implica la partecipazione a reti esterne in grado di informare sulle evoluzioni in atto, oltre a capacitò di procurement per scegliere soluzioni adeguate.
Infine, l’applicazione dell’intelligenza artificiale nella produzione ed erogazione dei servizi pubblici implica la costruzione di un livello di fiducia affinché gli utenti (nel caso del sistema giudiziario si tratta di utenti professionali quali gli avvocati, le imprese, i cittadini, le associazioni, ecc.) accettino il ruolo giocato dagli algoritmi, al posto degli umani (Janssen et al. 2018), considerando come in realtà si tratti non tanto di intelligenza quanto di una tecnologia di tipo statistico-probabilistico (Floridi 2021).
Si tratta di un complesso di fattori che portano a sottolineare fortemente l’esigenza di intervenire con progetti basati sul co-design, e cioè sull’azione congiunta di esperti di tecnologia, operatori-utilizzatori, esperti di organizzazione e di istituzioni, secondo modalità in grado di accompagnare la sperimentazione della tecnologia con i modelli di governance della stessa (Di Giulio e Vecchi 2019). Temi che portano con sé anche la riflessione sul ruolo delle istituzioni centrali (tra cui il Ministero della giustizia e il CSM) nella promozione delle innovazioni, compresa la loro eventuale diffusione.
Non a caso, non pochi contributi si soffermano sulle barriere organizzative e degli operatori verso l’utilizzo degli strumenti digitali e della AI. Una recente ricerca realizzata dal Joint Research Center dell’Unione Europea (EU JRC 2024a) contiene alcune raccomandazioni che hanno a che fare con l’adozione di sistemi di IA nelle organizzazioni pubbliche, tra cui in particolare:
• gli strumenti di IA non sono più solo una promessa, ma una realtà, in particolare per l’erogazione di servizi e per le funzioni interne;
• i fattori organizzativi sono le forze trainanti per l'adozione dell'IA, tra cui in particolare: il sostegno della leadership sotto forma di incentivi per l'IA, avere una cultura innovativa aperta a nuovi sviluppi; avere una chiara strategia di IA che includa una pianificazione e una guida all'implementazione dell'IA, la presenza di competenze interne sull'IA, non solo tecniche ma anche quelle legali e quelle in grado di trattare le questioni etiche;
• le domande dei cittadini per servizi migliori e a minor costo di produzione sono un fattore esterno importante per spingere all'adozione dell'IA.
In particolare, una delle barriere più consistenti è costituita dalla carenza di competenze interne ed esterne, oggetto del prossimo paragrafo.

4. Le competenze necessarie
Uno dei fattori principali per l’adozione, manutenzione ed evoluzione dei sistemi di IA è quello dell’arricchimento delle competenze interne alle amministrazioni pubbliche. Come è stato spesso richiamato, non è più possibile replicare le modalità dei decenni precedenti caratterizzate da ricorso ai soli fornitori esterni.
Un’altra ricerca del Joint Research Center (EU JRC 2024b), basata su un workshop cui hanno partecipato 40 esperti di sette Paesi europei, ha identificato un ampio set di competenze individuali associate allo sviluppo della IA nel settore pubblico.
Le competenze individuate sono state classificate in tre gruppi:
• tecniche
• manageriali
• relative alle politiche, agli aspetti legali e all’etica.
Queste a loro volta sono articolate in competenze attitudinali (conoscere perché), operative (conoscere come) e di digital literacy (conoscere cosa).
Molte di queste sono anche richiamate nel recente documento di Agid di “Linee guida per l’adozione di IA nelle amministrazioni pubbliche italiane” (Agid 2025).

4.1. Le competenze tecniche
A questa categoria sono ricondotte le seguenti competenze:

Competenze attitudinali (know-why): Curiosità tecnologica, Atteggiamento positivo verso l'IA, Pensiero progettuale tecnico (design thinking), Cultura orientata ai dati

Competenze operative (know-how): Gestione delle basi di dati, Governance dei dati, Raccolta dei dati, Modellazione dei dati, Valutazione della qualità dei dati, Analisi dei dati, Visualizzazione dei dati, Condivisione dei dati, Scelta dell'architettura IA, Scelta delle tecniche di apprendimento automatico, Programmazione di software legati all'IA, Addestramento degli algoritmi, Conformità agli standard tecnici dell'IA, Prompt engineering

Competenze di digital literacy/alfabetizzazione (know-what): Alfabetizzazione di base sui dati, Comprensione dell'analisi causale e della teoria delle decisioni, Comprensione dei fondamenti dell'apprendimento automatico, Comprensione della visione artificiale, Comprensione dell'elaborazione del linguaggio naturale, Comprensione della matematica applicata, Comprensione dei cicli di sviluppo del software IA
Fonte: EU JRC 2024b

Come si può notare, prevalgono le competenze di tipo operativo, connesse al trattamento di basi di dati, alla scelta dell’architettura dei dispositivi di IA, alla programmazione e addestramento di algoritmi. Ma anche le competenze di alfabetizzazione che permettano non solo di esercitare le competenze operative, ma anche di comprendere le opportunità e i limiti di utilizzo, risultano fondamentali. Fattori che sono alimentati dalle dimensioni attitudinali, tipiche di chi è attratto dalle materie STEM ma anche da una visione orientata alle possibilità di cambiamento organizzativo.

4.2. Le competenze manageriali
Come anticipato già nel paragrafo 2, l’introduzione di tecnologia digitale nelle amministrazioni pubbliche non richiede solo l’installazione di tecnologia, ma implica la gestione di spesso complessi processi socio-organizzativi interni ed anche l’esito della capacità di gestire relazioni (anche di lungo periodo) con reti di attori all’esterno delle organizzazioni. In sostanza, implica competenze manageriali. In particolare, quelle indicate nelle due tabelle sottostanti, che evidenziano dimensioni attitudinali e tecnico-operative (le competenze di alfabetizzazione tecnica relativa alle caratteristiche dell’AI non rientrano in questa categoria):

Competenze attitudinali (know-why): Leadership, Previsione/Foresight, Propensione al rischio, Comprensione dei benefici dell'IA, Centralità dell'utente, Multidisciplinarità, Responsabilità del progetto

Competenze operative (know-how): Anticipazione e gestione del rischio, Scelta di delegare all'IA, Condivisione della conoscenza (brokering), Collaborazione tra team, Decisioni supportate dai dati, Coordinamento, Traduzione intergruppo, Sviluppo di partnership, Gestione del cambiamento (change management)
Fonte: EU JRC 2024b

Nella dimensione attitudinale, sono indicate le tradizionali capacità riguardanti la leadership e la responsabilità di progetto, ma spiccano in particolar modo: a) la propensione al rischio, tipica per la gestione di progetti complessi, che implicano la capacità di affrontare situazione critiche e anche parziali insuccessi in prima fase attuativa; b) capacità connesse alla comprensione di diversi linguaggi (multidisciplinarità), ad esempio quello dei fornitori, quello degli esperti di algoritmi, e quello degli utilizzatori finali, ecc.
Nella dimensione operativa, emergono – assieme al fattore change management – competenze connesse alla interazione con il complesso di attori coinvolti, interni ed esterni, così come la capacità di agire come broker della conoscenza, e come attore interessato ad uscire dai confini organizzativi per indagare opportunità di miglioramento all’esterno, considerando che l’introduzione della digitalizzazione e degli apparati di IA implicano sia un continuo aggiornamento, sia spesso la condivisione delle modificazioni con altre amministrazioni e altri livelli istituzionali, specie se si è parte di piattaforme pubbliche.

4.3. Le competenze legali ed etiche
Tra le competenze rilevanti nei processi di introduzione e utilizzo dei sistemi di IA vi sono quelle legate alle implicazioni legali e etiche.
Si è formata ormai una chiara consapevolezza delle criticità che possono emergere in conseguenza delle caratteristiche dei sistemi di IA. Ad esempio, la gran parte delle chatbot sono realizzate da società internazionali che hanno progettato gli algoritmi che le fanno funzionare, senza che i modelli siano conosciuti dagli utilizzatori (alcune società mantengono riservatezza sui modelli e sulle modalità di addestramento); inoltre, non è conosciuto il modo in cui gli algoritmi giungono a formulare le specifiche risposte. Le conseguenze possono implicare fattori relativi alla individuazione delle responsabilità collegate all’utilizzo di sistemi di AI, a questioni legate al rispetto della privacy e ai divieti di profilazione, fino all’utilizzo inappropriato dei sistemi da parte degli operatori e alla gestione della cybersicurezza. Per questo le competenze legali e connesse all’etica sono rilevanti.

Competenze attitudinali (know-why): Empatia; Valutazione critica della tecnologia; Consapevolezza delle implicazioni etiche; Consapevolezza delle implicazioni di sostenibilità; Pensiero progettuale (Design Thinking)

Competenze operative (know-how): Formulazione di politiche compatibili con l'IA; Audit (Verifica e controllo); Disseminazione (Divulgazione e diffusione); Collaborazione con esperti del settore; Collaborazione con esperti di etica dell'IA

Competenze di alfabetizzazione (know-what); Alfabetizzazione sugli appalti per l'IA; Comprensione dei quadri legali ed etici; Comprensione dell'elaborazione delle politiche pubbliche e della teoria; Competenze giuridiche specialistiche; Alfabetizzazione su privacy e sicurezza
Fonte: EU JRC 2024b

Mentre la dimensione delle competenze attitudinali risulta basata su fattori intuitivi, pur sottolineando l’aspetto delle implicazioni etiche, tra le competenze operative vengono sottolineate quelle riguardanti l’importanza degli audit periodici, e della collaborazione con esperti legali e di etica; mentre è in questo caso rilevante il fattore alfabetizzazione, poiché la riduzione dei rischi passa per una diffusa formazione riguardante la comprensione dei quadri legali ed etici, con particolare riferimento ai tema della privacy e della sicurezza, sia organizzativa (cybersecurity) sia individuale, di operatori e di utenti.

5. Il monitoraggio e la gestione dei rischi nell’utilizzo dei sistemi di IA
L’adozione dei sistemi di IA non è esente da rischi, per cui è essenziale mettere in opera procedure di monitoraggio, di audit e di supervisione umana del loro funzionamento e utilizzo.
Mentre sono conosciuti i modelli teorici e le tecnologie di supporto (microprocessori, tra cui quelli grafici, datacenter, ecc.) che hanno condotto alla realizzazione, addestramento e funzionamento delle chatbot di AI generativa basate su LLM e sulle capacità di comprensione delle immagini, non è trasparente il modo in cui queste ‘macchine’ arrivano alle risposte generate in reazione alle domande (prompt). Gli algoritmi della chatbot operano in modo probabilistico sulla base della capacità di predire il simbolo successivo in una sequenza di lettere e frasi, ma ciò non implica capacità di pensiero. Per questo in diversi casi le risposte risultano inesatte oppure anche decisamente insensate: nei termini del linguaggio utilizzato in questo ambito, si parla infatti di ‘allucinazioni’ prodotte dalla IA.
Questo è un primo fattore di rischio, e cioè la produzione di informazioni senza senso o comunque errate, per cui la supervisione umana diventa indispensabile.
Inoltre, il problema della scarsa trasparenza ha a che fare con una serie di temi etici, innanzitutto quello dell’equità. In ragione del tipo di addestramento e dei documenti su cui la IA ha accesso, in diverse occasioni le soluzioni di supporto alle decisioni basate su algoritmi hanno prodotto esiti discriminatori oppure limitazioni alla tutela della privacy; ad esempio, in casi di utilizzo di applicazioni da parte delle forze dell’ordine e del sistema giudiziario negli Stati Uniti, che hanno evidenziato l’esigenza di trasparenza nel disegno degli algoritmi e sui risultati delle applicazioni (cfr. il tema del passaggio da discrezionalità delle burocrazie a discrezionalità automatizzata in Zouridis et al. 2020). Una seconda dimensione connessa all’equità riguarda le modalità attraverso cui può venire perseguita una maggiore produttività del settore pubblico (e di quello privato); se, come in molte occasioni è stato evocato, lo sviluppo dell’IA dovesse condurre all’espulsione di lavoratori e professionisti dal mercato del lavoro e al loro rimpiazzo con la tecnologia, il risultato sarebbe costituito dall’aumento delle diseguaglianze. Mentre, al contrario, l’obiettivo dovrebbe essere diretto alla individuazione di compiti a maggiore valore aggiunto in grado di aumentare la produttività marginale e contribuire a effetti di progresso (Acemoglu & Johnson 2023). Infine, una terza dimensione riguarda il problema dell’accesso alle nuove soluzioni di IA e di riduzione del digital divide e della digital illiteracy, che riguarda ancora diverse categorie di cittadini e imprese, così come di territori.
Un ulteriore rischio deriva dalla possibile mancata supervisione umana nel caso di sistemi utilizzati per ridurre la discrezionalità degli operatori. È noto il dibattito sulle difficoltà di diversi interventi pubblici nell’ottenere una attuazione coerente, a causa dell’ampia discrezionalità delle cosiddette ‘burocrazie a livello di strada’. Una discrezionalità spesso necessaria per personalizzare i servizi in relazione ai bisogni dei beneficiari e per adattarli ai diversi contesti, ma in diversi casi alla base di una eccessiva divergenza di decisioni pur su casi analoghi; divergenze che caratterizzano i medesimi decisori su casi trattati in tempi successivi, o che emergono dalle comparazioni tra diversi operatori – si veda il concetto di ‘noise’ attribuito da Kahneman (Kahneman et. al. 2021) a queste situazioni di eccessiva disparità. L’IA può offrire allora soluzioni in grado di aumentare i livelli di uniformità, attraverso applicazioni di decision-making automatico (ADM – Algorithmic Decision-Making), basate su algoritmi in grado di apprendere e così migliorare nel tempo i loro risultati, pur se tuttavia supervisionata dagli operatori per evitare, appunto, risposte errate o non adeguate al contesto specifico (cfr. Gillingham et al. 2024; Margetts et al. 2024).
Ancora, ulteriori rischi possono derivare dall’utilizzo di applicazioni che non rispettano i principi della privacy, che conducono alla produzione di dati per la profilazione delle persone (un tema che ha a che fare sia la tutela dei diritti della persona che principi che regolano le relazioni tra i poteri istituzionali dello Stato, quali ad esempio le relazioni tra magistratura ed esecutivo).
Infine, ma di grande rilevanza, rischi – anche in termini di geopolitica – emergono in relazione a fatto che esiste un numero limitato di aziende con capacità di sviluppare strumenti basati sulla IA, le cosiddette BigTech, concentrate in poche nazioni; esse dispongono di un livello di risorse che le rende super-attori nello sviluppo e diffusione di questa tecnologia (Khanal et al. 2024), nel senso che sono in grado di influenzare le politiche pubbliche degli Stati, anche in considerazione del possibile uso militare di questi dispositivi. Fattori che pongono un problema sia in termini di sovranità degli Stati (cfr. Baldoni 2024), sia in termini di gestione dei dati e di tutela della privacy derivanti dall'uso delle soluzioni applicative da parte degli utenti finali, ad esempio apparati governativi e pubbliche amministrazioni, cittadini e imprese. In questa direzione, esiste ed è in fase di ulteriore evoluzione una rilevante regolamentazione degli usi. Tutti elementi ben evidenziati dall’intervento regolativo dell’Unione Europea con il cosiddetto AI Act del 13 giugno 2024, e dalle già citate Linee guida dell’Agid (bozza di consultazione del febbraio 2025) sull’adozione di IA nel settore pubblico, documenti che sottolineano l’importanza di una specifica governance connessa all’introduzione e utilizzo della IA, in cui rilevanza hanno i sistemi di monitoraggio e accountability (cfr. Novelli et al. 2024).

6. Conclusioni. IA e sviluppo delle amministrazioni pubbliche: il tema degli interventi a livello territoriale
Il complesso di questi fattori introduce una ulteriore dimensione nell’ottica dell’adozione di sistemi di IA nel settore pubblico, quella della territorializzazione.
Una delle caratteristiche dell’evoluzione delle tecnologie digitali è costituita dall’aumento delle esigenze di integrazione verticale tra le amministrazioni pubbliche, con una maggiore rilevanza assunta dal livello statale (si pensi alle piattaforme pubbliche, al cloud, alla cybersecurity), senza che tuttavia perdano di importanza le amministrazioni locali e i servizi a contatto diretto con i cittadini (cfr. Dunleavy & Margetts 2023). Lo sviluppo della digitalizzazione richiede nuovi modelli di governance per garantire una diffusione equilibrata delle innovazioni in atto, anche per permettere alle amministrazioni meno attrezzate (in particolare i piccoli comuni) di potersi agganciare all’evoluzione che già caratterizza molte delle grandi e medie città (cfr. Di Giulio e Vecchi 2023). In questa direzione, l’adozione di programmi basati sull’idea dello sviluppo territoriale e non solo di alcune specifiche amministrazioni diventa decisivo sia in termini di accessibilità alle nuove tecnologie che di contributo ai livelli di benessere e di coesione socio-economica.
La lettura integrata dei fattori collegati all’introduzione della IA nel settore pubblico permette, infine, di sviluppare alcune considerazioni conclusive.
Innanzitutto, l’esigenza di un orientamento ‘pro-human’ che lo sviluppo e l’adozione delle applicazioni di IA dovrebbero perseguire, in modo tale che siano utilizzate per finalità complementari alle persone, lavoratori e cittadini indistintamente (Acemoglu & Johnson 2023).
Infine, un decisivo fattore per l’introduzione e l’utilizzo dei sistemi di IA nel settore pubblico è costituito dalla formazione continua. La letteratura in argomento richiama in modo costante il fatto che il ritardo di sviluppo della digitalizzazione nelle organizzazioni pubbliche dipende in molti casi dalla difficoltà del personale di competenze digitali di base unite alla comprensione circa l’utilizzo appropriato delle applicazioni. Considerando le criticità connesse alle soluzioni algoritmiche, sopra richiamate, gli interventi sulle competenze e sulle capacità organizzative interne e in house diventano allora decisive.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.