testo integrale con note e bibliografia

1. Premessa.
Come già rilevato in un precedente scritto, l’incidenza del progresso tecnologico costituisce il sostrato socio-economico del processo di trasformazione dell’ordinamento giuridico. Unitamente allo sviluppo dei sistemi di comunicazione elettronica, la diffusione delle risorse digitali e degli elaboratori elettronici nell’ambito delle attività umane ha determinato l’emersione di nuove problematiche e la necessità di un inquadramento sistematico sulla portata degli innovativi esiti dell’evoluzione tecnologica.
Nel presente e nel prossimo futuro, nel settore del diritto amministrativo il dibattito deve, e dovrà, riguardare l’impiego delle moderne tecnologie di intelligenza artificiale nello svolgimento dell’attività di cura dell’interesse pubblico per indagare nuove prospettive di automazione dei processi decisionali, la cui compatibilità con le garanzie, che tradizionalmente presidiano l’esercizio delle funzioni pubbliche, va valutata alla stregua dei principi generali del diritto amministrativo.
Si tratta di questioni che fino a qualche anno fa erano confinate nell’ambito del dibattito teorico (e oggetto di poche decisioni giudiziali) ma che ormai interessano pressoché tutti i settori dell’ordinamento.
Peraltro spesso ormai si discute, anche in una prospettiva diversa da quella giuridica, delle opportunità e dei rischi legati all’uso dell’intelligenza artificiale. A coloro che esaltano le potenzialità del mezzo si contrappongono coloro che, invece, temono il “sopravvento” della macchina sull’uomo, la perdita di posti di lavoro, la riduzione delle capacità umane in ragione del sempre maggiore affidamento al “lavoro” fatto dalle macchine, ecc.
Per tali ragioni, le prospettive di innovazione degli strumenti informatici e le potenziali criticità insite nell’utilizzo delle tecnologie di machine learning sono state oggetto di un crescente interesse politico e istituzionale. Tanto si desume non solo dall’elaborazione di specifici documenti di studio – che ormai possiamo considerare datati – da parte di commissioni governative istituite negli Stati Uniti d’America e nel Regno Unito , ma anche dalla approvazione di una risoluzione del Parlamento europeo sulla disciplina della robotica e dei sistemi di intelligenza artificiale .
I dubbi che via via si sono manifestati non hanno frenato gli investimenti in questo settore e la conseguente necessità di individuare alcune regole generali. Proprio per questo, di recente, è stato approvato il regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che, già al considerando 1, si prefigge l’ambizioso obiettivo di istituire un quadro giuridico uniforme per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi di intelligenza artificiale nell'Unione. Si precisa poi che tutto ciò dovrà avvenire in conformità ai valori dell'Unione, promuovendo la diffusione di un'intelligenza artificiale antropocentrica e affidabile nonché garantendo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea («Carta»), compresi la democrazia e lo Stato di diritto.
Sul versante interno, e senza pretesa alcuna di completezza, giova in primo luogo considerare l’art. 30 del codice dei contratti pubblici (d. lgs. 31 marzo 2023, n. 36) che, per migliorare l'efficienza delle stazioni appaltanti, prevede la possibilità per le amministrazioni, e i soggetti a queste equiparati, di automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, ivi incluse l'intelligenza artificiale e le tecnologie di registri distribuiti, nel rispetto delle specifiche disposizioni in materia.
Ancora più di recente, l’art. 2, comma 1, lett. f) d.lgs. 12 febbraio 2024, n. 13, nel disciplinare l’analisi di rischio in materia tributaria, ha definito l’analisi probabilistica come “insieme dei modelli e delle tecniche di analisi che, sfruttando soluzioni di intelligenza artificiale ovvero di statistica inferenziale, consentono di isolare rischi fiscali, anche non noti a priori, che, una volta individuati, possono essere utilizzati per l'elaborazione di autonomi criteri selettivi, ovvero permettono di attribuire una determinata probabilità di accadimento a un rischio fiscale noto”.
L’art. 22 d.lgs. 25 marzo 2024, n. 41, consente l’utilizzo dell’intelligenza artificiale per il contrasto all’offerta di gioco illegale sui siti informatici.
L’art. 1, comma 5, lett. g) d.l. 7 giugno 2024, n. 73, richiama l’uso dell’intelligenza artificiale per la gestione della piattaforma nazionale delle liste di attesa in materia sanitaria.
Merita in ultimo un riferimento il disegno di legge 1146 all’esame del Senato perché, oltre a definire l’intelligenza artificiale (articolo 2), si prefigge l’ambizioso obiettivo di dettare princìpi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di intelligenza artificiale. Il disegno di legge intende poi promuovere un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità, oltre a garantire la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale.
Non si tratta dunque di schierarsi tra i sostenitori o i detrattori dell’intelligenza artificiale né di discutere se sia meglio rinunciarvi per un futuro “non governato dalle macchine” per la semplice considerazione che l’intelligenza artificiale è già “realtà” e che con essa è necessario confrontarsi.

2. Le istruzioni algoritmiche e i sistemi di intelligenza artificiale: inquadramento storico e definizione giuridica.
Fino a qualche anno fa nel diritto amministrativo gli studi si concentravano sulla sostituzione del documento e del provvedimento, cartaceo, scritto e sottoscritto, col documento informatico munito di firma elettronica o digitale e al più sull’uso della rete da parte delle amministrazioni .
Oggi l’amministrazione 4.0. impone l’esame di queste nuove e più potenti tecnologie individuabili con la locuzione “intelligenza artificiale”.
Nel linguaggio matematico per algoritmo si intende «una sequenza di passaggi elementari, secondo una sequenza finita e ordinata di istruzioni chiare e univoche (ognuna delle quali eseguibile entro un tempo finito e che produce un risultato in un tempo finito) per la risoluzione di un dato problema» .
Il funzionamento degli elaboratori elettronici, sino a qualche tempo fa, si fondava su algoritmi costruiti secondo lo schema ipotetico “if-then”, il quale prescrive al calcolatore informatico l’esecuzione di istruzioni certe e univoche al ricorrere di condizioni predeterminate . Il contenuto della sequenza algoritmica elaborata dal programmatore umano vincolava la macchina allo svolgimento di operazioni rigorosamente prestabilite, generalmente funzionali alla celere esecuzione di azioni o calcoli ripetitivi, la cui complessità muta in funzione delle intrinseche capacità tecnologiche delle componenti meccaniche.
Il progresso strumentale e tecnologico aveva prevalentemente condotto alla produzione di calcolatori elettronici programmati per lo svolgimento di compiti seriali e l’esecuzione di operazioni integralmente predeterminate dalla volontà umana, non invece alla progettazione di macchine in grado di rielaborare i dati della realtà e formulare in modo autonomo decisioni non vincolate al contenuto delle istruzioni algoritmiche. La prevalente diffusione di questo genere di calcolatori elettronici hanno indotto a ritenere che il periodo storico compreso tra gli anni settanta e ottanta del secolo scorso potesse essere denominato come “l’inverno dell’intelligenza artificiale” .
Con i nuovi programmi di c.d. intelligenza artificiale, invece, il computer non si limita ad eseguire le istruzioni imposte da una sequenza algoritmica predeterminata ma formula decisioni, in tutto o in parte, autonome attraverso la rielaborazione dei dati via via acquisiti e l’adeguamento progressivo ai fenomeni conosciuti. Per il vero, sin dalle origini dell’indagine matematica e ingegneristica sulla progettazione dei calcolatori elettronici, Alan Turing, unanimemente considerato come uno dei padri fondatori delle scienze informatiche, immaginava la creazione di “macchine pensanti” capaci di formulare ragionamenti fondati su schemi logici e argomentativi tipici della conoscenza umana .
Soltanto negli ultimi vent’anni, tuttavia, lo sviluppo di potentissimi processori e il rinnovato interesse per la programmazione di sistemi di automazione “intelligenti” hanno condotto alla creazione di elaboratori informatici che, avvalendosi delle cosiddette reti neurali artificiali, adattano il proprio funzionamento alle mutevoli caratteristiche della realtà esterna e risolvono autonomamente problemi tecnici e operativi più o meno complessi.
Anche per la giurisprudenza è bene distinguere: infatti «non v'è dubbio che la nozione comune e generale di algoritmo riporti alla mente "semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato" (questa la definizione fornite in prime cure). Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l'intervento umano. Il grado e la frequenza dell'intervento umano dipendono dalla complessità e dall'accuratezza dell'algoritmo che la macchina è chiamata a processare. Cosa diversa è l'intelligenza artificiale. In questo caso l'algoritmo contempla meccanismi di machine learnig e crea un sistema che non si limita solo ad applicare le regole sofware e i parametri preimpostati (come fa invece l'algoritmo "tradizionale") ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico».
Siamo così giunti alla definizione di intelligenza artificiale fornita del Regolamento europeo del 2024, c.d. A.I. Act: un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali .
Tale definizione si trova peraltro anche nel già citato disegno di legge all’esame del Senato della Repubblica.
È dunque certo che il superamento del tradizionale modello di esercizio dell’attività amministrativa, fondato sulla prevalente utilizzazione di supporti di tipo cartaceo (cosiddetta Amministrazione 1.0), non si risolve nel mero impiego di computer e altri apparati informatici (cosiddetta Amministrazione 2.0) o nella fruizione delle risorse digitali offerte dalla rete internet, dalle applicazioni mobili o dagli stessi social networks (cosiddetta Amministrazione 3.0), ma nell’automazione di funzioni precedentemente affidate in via esclusiva alle abilità umane (cosiddetta Amministrazione 4.0) .

3. Organizzazione amministrativa e intelligenza artificiale.
L’approvazione del regolamento europeo ha certamente mutato il quadro di riferimento. In attesa dell’approvazione del disegno di legge all’esame del Parlamento, è possibile, sin da subito, evidenziare che l’amministrazione si trova dinanzi a una sfida, oltre che culturale, di tipo organizzativo .
Il considerando 26 ricorda che “al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro. Tale approccio dovrebbe adattare la tipologia e il contenuto di dette regole all'intensità e alla portata dei rischi che possono essere generati dai sistemi di IA. È pertanto necessario vietare determinate pratiche di IA inaccettabili, stabilire requisiti per i sistemi di IA ad alto rischio e obblighi per gli operatori pertinenti, nonché obblighi di trasparenza per determinati sistemi di IA”.
Si spiega così la scelta compiuta in ambito europeo e la costruzione di un sistema, definito dalla dottrina, di tipo piramidale che va dal rischio minimo sino al rischio non accettabile . Così l’AI Act individua, all’art. 5, alcune pratiche vietate tra le quali vanno ricordate i sistemi che utilizzano tecniche subliminali, che sfruttano le vulnerabilità di una persona dovute all’età, alla disabilità o a una specifica situazione economica e sociale, che classificano le persone sulla base del loro comportamento sociale o di caratteristiche della personalità, che profilano le persone per valutare il rischio di compimento di reati, che carpiscono le emozioni di una persona fisica sul luogo di lavoro o di istruzione, ecc.
L’allegato III al regolamento europeo individua poi i sistemi ad alto rischio, come definito all’art. 6 del regolamento stesso. Per quanto di interesse in questa sede sono inclusi tra i sistemi di intelligenza artificiale ad altro rischio, tra l’altro, quelli che operano nei settori delle infrastrutture critiche (infrastrutture digitali, traffico stradale, fornitura di acqua, gas e energia), dell’istruzione e formazione professionale, dell’occupazione e gestione dei lavoratori, dell’accesso a prestazioni e servizi pubblic essenziali nonché alla fruizione degli stessi, della migrazione, asilo e gestione del controllo delle frontiere e dell’amministrazione della giustizia.
Considerata l’elencazione che l’allegato III fa dei sistemi ad alto rischio, nella maggior parte dei casi, l’amministrazione dovrà confrontarsi con le regole previste per questi sistemi e, dunque, procedere alla ricognizione delle attività in cui potrà utilizzarli, valutandone anche l’impatto sui diritti fondamentali ai sensi dell’art. 27, selezionare il miglior fornitore, anche sulla base della documentazione tecnica e il software adeguato (verificando se è stato addestrato, o addestrandolo, con un asset corretto di dati che soddisfa i criteri di qualità di cui all’art. 10) che risponda anche ai requisiti di trasparenza richiesti dal regolamento . Occorrerà inoltre valutare se il sistema fornito garantisce una corretta gestione del rischio e un monitoraggio continuo nonché accuratezza, robustezza e cibersicurezza (articolo 14). In qualità di deployer dovrà rispettare l’obbligo di registrazione (art. 26, comma 8) e garantire l’utilizzo conformemente alle istruzioni d’uso (art. 26, comma 1) nonché la sorveglianza umana – affidandola a persone che dispongono della necessaria competenza e formazione (art. 26, comma 2) – per prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile; viene altresì specificato che le misure di sorveglianza devono essere commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio (art. 14). Nella misura in cui esercita il controllo sui dati di input, l’amministrazione dovrà garantire altresì che tali dati siano pertinenti e sufficientemente rappresentativi (art. 26, comma 4) nonché assicurare il monitoraggio sul funzionamento.
Come può intuitivamente comprendersi si tratta di sfide che richiedono un imponente sforzo organizzativo, oltre che “culturale” in senso lato, e che passano anche per un’adeguata “alfabetizzazione” in materia. Su tale ultimo profilo il regolamento è chiarissimo nello stabilire che anche i deployer devono adottare misure per garantire un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell'utilizzo dei sistemi di IA per loro conto (art. 4).
Per le ragioni prima indicate, risultano ormai superati i rilievi di quella parte della dottrina secondo cui, in difetto di una disciplina normativa espressa sull’esercizio del potere pubblico con modalità informatiche, l’adozione di atti amministrativi mediante programmi esecutivi di regole algoritmiche si risolverebbe in una violazione del principio di legalità . A prescindere dal fatto che da parte di alcuni si utilizza il termine “legalità algoritmica” , invero, se la riserva di legge prevista dall’articolo 97 della Costituzione prescrive l’individuazione normativa dell’interesse pubblico da perseguire e della tipologia di provvedimenti da adottare, la determinazione degli strumenti tecnici di esercizio del potere (già anche prima) rientra(va) nel margine di libero apprezzamento e di organizzazione, della pubblica Amministrazione, onde l’utilizzo di programmi di informatizzazione decisionale conoscibili e sindacabili (già anche prima) non confligge(va) con il canone di legalità delle funzioni pubbliche.

4. Procedimento amministrativo e intelligenza artificiale.
L’utilizzo dell’intelligenza artificiale ha l’obiettivo di migliorare la celerità e l’efficienza dell’azione amministrativa, la completezza dell’istruttoria, la prevedibilità delle decisioni, riducendo al contempo il rischio di disparità di trattamento. Diversamente ragionando difficilmente si giustificherebbe l’ingente impiego di risorse in questo settore.
Questi ambiziosi obiettivi si confrontano, e a volte si scontrano, con alcune regole sul procedimento amministrativo pensate in un’epoca diversa e con logiche differenti.
Spetta in prima battuta all’interprete verificare se tali finalità risultino compatibili con le norme oggi contenute nella legge sul procedimento amministrativo. Non è possibile in questa sede effettuare una verifica capillare ma certamente va considerata la necessità di coordinare, o integrare, alcune norme sul procedimento – volte a garantire il contraddittorio tra amministrazione e amministrato nonché la partecipazione degli interessati al procedimento – con gli obiettivi di celerità ed efficienza legati all’uso dell’intelligenza artificiale.
Ancor più nel dettaglio occorre comprendere se le norme (e la giurisprudenza) che correttamente garantiscono un certo lasso di tempo tra l’avviso di avvio del procedimento e la conclusione del procedimento stesso o quelle che prevedono la partecipazione di possibili soggetti interessati (diversi da destinatario) o ancora quelle che impongono la comunicazione dei motivi ostativi all’accoglimento dell’istanza, siano compatibili con la velocità dei procedimenti gestiti dall’intelligenza artificiale.
Occorre dunque chiedersi se l’utilizzo degli strumenti di automazione decisionale, dal quale necessariamente discende una necessaria riduzione/concentrazione temporale delle fasi costitutive del procedimento amministrativo, possa risolversi nella ‘compressione’ delle garanzie partecipative riconosciute dalla legge a tutela delle posizioni giuridiche soggettive correlate all’esercizio del potere. In altri termini, ove il processo di informatizzazione amministrativa precludesse il godimento delle facoltà collaborative e conoscitive previste dalle norme sullo svolgimento della sequenza procedimentale, la gestione elettronica dei rapporti giuridici di diritto pubblico renderebbe attuale il rischio di un’incontrollabile violazione delle regole che conformano la manifestazione della potestà autoritativa. L’interlocuzione istruttoria con il responsabile del procedimento, la presentazione di memorie e documenti, l’accesso “partecipativo” e “difensivo” ai documenti amministrativi devono essere garantiti anche nell’ambito di procedimenti gestiti mediante tecnologie informatiche tradizionali o “intelligenti” magari con differenti modalità. Come rilevato dalla dottrina «la legalità procedurale viene a rappresentare un essenziale “…crisma di legittimazione del potere autoritativo della pubblica amministrazione” . Non si tratta dunque di “sostituire con un algoritmo la figura del funzionario responsabile del procedimento: piuttosto, è viceversa certamente possibile immaginare che il funzionario responsabile si serva utilmente dell’Intelligenza Artificiale” .
È ben possibile che in futuro si arrivi a modificare le regole sul procedimento. Si auspica tuttavia che le modifiche, integrando l’intelligenza artificiale col procedimento amministrativo, riescano a garantire, pur con nuove regole e differenti schemi, il livello complessivo di tutele che faticosamente sono state elaborate negli anni dalla giurisprudenza e poi recepite dal legislatore. Peraltro già la giurisprudenza ha affermato che “l’utilizzo di procedure “robotizzate” non può, tuttavia, essere motivo di elusione dei princìpi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa” .

5. Provvedimento amministrativo e intelligenza artificiale. Le questioni problematiche.
L’esercizio di poteri unilaterali e autoritativi mediante sistemi informatici non può prescindere da uno studio preliminare senza il quale l’impiego di tecnologie “intelligenti” rischia di collidere con alcune fondamentali regole di svolgimento dell’attività amministrativa.
Ed invero, una parte degli studiosi delle scienze informatiche ha osservato che i software di intelligenza artificiale attualmente programmabili, pur formulando decisioni autonome sulla base della combinazione dei dati di esperienza acquisiti, non tengono traccia del percorso di giustificazione logica della scelta elettronica finale. In altri termini, non sempre è possibile comprendere qual è stato il percorso “logico” seguito dalla macchina perché i sistemi di intelligenza artificiale non sempre consentono l’esternazione dell’iter argomentativo che correla le informazioni di base (input) alla determinazione conclusiva elaborata dal calcolatore (output). Tale intrinseco limite tecnologico, cui comunemente si allude con l’espressione anglosassone “black box” , rivela la potenziale conflittualità tra il processo di informatizzazione amministrativa, sotto lo specifico profilo dell’uso dell’intelligenza artificiale, e le ineludibili garanzie di conoscibilità e trasparenza della decisione poste a fondamento dell’obbligo di motivazione di cui all’articolo 3 della legge n. 241 del 1990 . Per la dottrina “restituire trasparenza all’algoritmo appare, quindi, un obiettivo irrinunciabile nella costruzione di un’intelligenza artificiale al servizio dell’amministrazione” .
La compatibilità sistematica dell’impiego di programmi di intelligenza artificiale nell’esercizio della potestà pubblica deve inoltre essere esaminata in relazione alla natura delle informazioni di base del “ragionamento” elettronico. L’attitudine dei sistemi basati sul machine learning e sul deep learning alla formulazione di decisioni indipendenti dal contenuto delle istruzioni algoritmiche predeterminate dipende dall’elaborazione di ingenti masse di dati (cosiddetti big data) non organizzabile secondo univoci criteri . La gestione dell’indistinto insieme di informazioni amministrative mediante tecniche di automazione “intelligente” sottende il rischio che nel processo di valutazione elettronica confluiscano dati personali o sensibili a prescindere dal consenso del soggetto interessato al trattamento, con conseguente violazione delle norme nazionali ed eurounitarie sulla protezione della sfera di riservatezza individuale .
L’elaborazione automatizzata di flussi informativi, inoltre, può a volte tradursi nella deformazione dei rapporti di connessione tra i fenomeni e, per tale via, nella costruzione di modelli della realtà paradossali o discriminatori (cosiddetti bias cognitivi) . L’attendibilità dei dati acquisiti dai sistemi di intelligenza artificiale incide sulla validità degli schemi logici posti a fondamento dell’inferenza informatica, la quale, ove non supportata da corretti presupposti conoscitivi, può condurre alla formulazione di conclusioni fallaci o eticamente inaccettabili .

5.1. (segue) il processo di automazione decisionale nella dottrina e nella giurisprudenza amministrativa. Accesso al software e suo sindacato.

Iniziando dalla giurisprudenza, giova ricordare che la questione giuridica relativa alle modalità e ai limiti applicativi delle moderne tecnologie di automazione decisionale è stata esaminata da alcune decisioni del Consiglio di Stato.
Nell’ambito della procedura straordinaria di reclutamento del personale docente autorizzata dalla legge 13 luglio 2015, n. 107 (riforma della “buona scuola”), l’Amministrazione ha disposto l’assegnazione degli insegnanti destinatari delle proposte di assunzione alle diverse sedi territoriali di servizio mediante alcuni sistemi di elaborazione informatica dei provvedimenti di trasferimento. L’utilizzo di tali programmi ha dato luogo a molteplici controversie giurisdizionali sulla razionalità delle assegnazioni elettroniche interprovinciali e sull’attendibilità del modello algoritmico di funzionamento del software.
Al riguardo, la Sezione VI del Consiglio di Stato, con sentenza 8 aprile 2019, n. 2270, pur rilevando le intrinseche potenzialità di miglioramento dei livelli di efficienza amministrativa insite nel processo di informatizzazione istituzionale, ha ritenuto che la sequenza algoritmica costituisce la traduzione in forma matematica di un «atto amministrativo informatico» (§ 8.2), la cui adozione mediante tecniche elettroniche non esime dall’osservanza dei principi di trasparenza, pubblicità, proporzionalità e ragionevolezza che presiedono all’esercizio delle funzioni pubbliche . Proprio in ragione della natura provvedimentale dell’algoritmo, la Sezione VI ha statuito che i software utilizzati dalla pubblica Amministrazione devono consentire la trasposizione in termini giuridici delle prescrizioni formulate in linguaggio computazionale, in modo che siano assicurate la conoscibilità e la comprensibilità dello schema logico di funzionamento del programma informatico .
Ulteriore corollario della qualificazione in termini provvedimentali della regola algoritmica è costituito dalla sua piena sindacabilità dinnanzi al giudice amministrativo. Come osservato dal Consiglio di Stato con la citata pronuncia, «[s]olo in questo modo è possibile svolgere, anche in sede giurisdizionale, una valutazione piena della legittimità della decisione; valutazione che, anche se si è al cospetto di una scelta assunta attraverso una procedura informatica, non può che essere effettiva e di portata analoga a quella che il giudice esercita sull’esercizio del potere con modalità tradizionali» (§ 8.4). La Sezione VI ha inoltre precisato che il sindacato del giudice amministrativo concerne, in una prima fase, la correttezza delle attività che connotano il processo di automazione, a loro volta costituite non soltanto dalla costruzione dell’algoritmo, ma anche dall’acquisizione, dalla validazione e dalla gestione dei dati; in una seconda fase, la legittimità del provvedimento adottato dal software in esecuzione delle prescrizioni algoritmiche .
Non tutta la dottrina concorda con la qualificazione del software in termini di provvedimento amministrativo preferendo alcuni qualificarlo come documento accessibile , altri, in modo convincente, come “strumento dell’azione amministrativa”
Nei prossimi anni, spetterà ancora alla giurisprudenza garantire l’accesso al software, contemperando le esigenze di tutela del ricorrente o del richiedente l’accesso con quelle del proprietario del software allo scopo di evitare forme abusive o emulative di accesso, come, seppure in relazione a fattispecie diversa, è già stato messo in rilievo dall’ordinanza di rinvio pregiudiziale della quinta sezione del Consiglio di Stato, 15 ottobre 2024, n. 8278.

5.2. (segue) provvedimenti vincolati e discrezionali.
Nell’indagare sulla compatibilità sistematica delle forme di automazione dell’azione amministrativa la dottrina e la giurisprudenza si sono inoltre domandate se l’utilizzo delle tecnologie informatiche possa essere consentito soltanto nell’ambito dell’attività vincolata ovvero anche nelle ipotesi in cui la legge riconosca all’Amministrazione poteri di valutazione discrezionale.
L’impostazione interpretativa prevalente non dubita che i programmi informatici possano essere usati nello svolgimento dell’attività amministrativa vincolata . Le pubbliche Amministrazioni si avvalgono ormai da tempo di moderni strumenti di analisi dei flussi informativi, la cui rielaborazione elettronica conduce all’adozione di decisioni esecutive di una regola normativa espressa in linguaggio algoritmico.
Anche in relazione all’attività discrezionale, nonostante qualche presa di posizione in senso contrario, la giurisprudenza amministrativa ritiene che l’impiego di software “programmati per l’esecuzione di istruzioni computazionali, oltre a contribuire alla semplificazione dei processi decisionali, orienti la potestà valutativa pubblicistica nel senso stabilito dalla sequenza algoritmica, assicurando maggiore neutralità e stabilità alle scelte di amministrazione attiva . Al riguardo, la Sezione VI del Consiglio di Stato, con sentenza 13 dicembre 2019, n. 8472, ha infatti osservato che, «se il ricorso agli strumenti informatici può apparire di più semplice utilizzo in relazione alla cosiddetta attività vincolata, nulla vieta che i [fini stabiliti dalla legge], perseguiti con il ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad attività connotata da ambiti di discrezionalità. Piuttosto, se nel caso dell’attività vincolata ben più rilevante, sia in termini quantitativi che qualitativi, potrà essere il ricorso a strumenti di automazione della raccolta e valutazione dei dati, anche l’esercizio di attività discrezionale, in specie tecnica, può in astratto beneficiare delle efficienze e, più in generale, dei vantaggi offerti dagli strumenti stessi» .
Soltanto nell’ambito dell’attività discrezionale della pubblica Amministrazione può inoltre immaginarsi l’impiego di tecnologie informatiche che non si limitano ad eseguire istruzioni preventivamente programmate, ma pervengono all’autonoma formulazione di decisioni in relazione alle caratteristiche della fattispecie concreta. Viceversa, nei casi in cui la legge determina analiticamente il contenuto dell’atto da adottare ovvero prescrive lo svolgimento di valutazioni di ordine tecnico-scientifico, le capacità di autonomia decisionale dei moderni programmi di intelligenza artificiale non possono essere utilmente sfruttate.
Per rispondere a chi dubita dell’opportunità di utilizzo di tali innovativi strumenti, si è, in modo condivisibile, evidenziato che la decisione della macchina, proprio perché presa dalla macchina, ha un tasso intrinseco di obiettività maggiore. Questo naturalmente non deve trasformarsi in fideistico affidamento alla decisione della macchina, restando comunque impregiudicata la necessità di assicurare al destinatario dell’atto una decisione comprensibile nel linguaggio dell’uomo; è altresì indispensabile, come evidenziato in dottrina, uno sforzo per il superamento di vari profili di “opacità” tecnica (consistente nella difficoltà di comprendere il funzionamento dal punto di vista tecnico) e giuridica (individuabile nella difficoltà di accedere al software).
Inoltre, le prospettive d’impiego delle tecnologie “intelligenti” nell’esercizio di attività connotate da ampi margini di discrezionalità impongono l’individuazione di principi applicativi che assicurino, al contempo, il godimento delle moderne potenzialità informatiche e l’osservanza dei canoni generali di esercizio della funzione pubblica.

5.3. (segue) l’imputazione organica e il regime di responsabilità per i danni cagionati dalla decisione automatizzata.
Il rapporto di immedesimazione organica costituisce il generale modello di imputazione degli atti e dei relativi effetti ai soggetti giuridici di diritto pubblico. Al vincolo naturalistico consistente nell’intrinseca inidoneità delle figure soggettive pubbliche all’autonomo svolgimento di qualsivoglia attività materiale supplisce la costruzione di uno schema teorico in forza del quale l’Amministrazione diviene centro di imputazione degli atti posti in essere da un organo-persona fisica .
Il delineato modello di imputazione degli atti giuridici e dei relativi effetti ai soggetti di diritto pubblico trova integrale applicazione anche nelle ipotesi in cui l’Amministrazione si avvalga di strumenti di automazione dei processi decisionali. Non sussistono infatti ragioni di principio che giustifichino un’esenzione di responsabilità dell’ente e dell’organo competente all’adozione del provvedimento finale nei casi in cui l’Amministrazione adoperi sistemi informatici programmati per l’esecuzione di istruzioni algoritmiche o dotati di autonome capacità di elaborazione delle decisioni . Per la dottrina, in modo condivisibile, “i sistemi di Intelligenza Artificiale non possono in alcun modo sostituire le competenze e le responsabilità del funzionario amministrativo persona fisica” .
Con la già citata sentenza 13 dicembre 2019, n. 8472, la Sezione VI del Consiglio di Stato ha osservato che «[s]ul versante della verifica degli esiti e della relativa imputabilità, deve essere garantita la verifica a valle, in termini di logicità e di correttezza degli esiti. Ciò a garanzia dell’imputabilità della scelta al titolare del potere autoritativo, individuato in base al principio di legalità, nonché della verifica circa la conseguente individuazione del soggetto responsabile, sia nell’interesse della stessa p.a. che dei soggetti coinvolti ed incisi dall’azione amministrativa affidata all’algoritmo» .
È già stato rilevato che l’utilizzo di tecnologie informatiche nell’ambito dell’attività amministrativa può dar luogo a danni risarcibili per ragioni tecniche di diversa specie: se la scelta di software non funzionali al concreto perseguimento dell’interesse pubblico determina l’elaborazione di risultati incongrui o fuorvianti, parimenti l’immissione dei dati invalidi o l’erroneo utilizzo del programma informatico vanificano i risultati vantaggiosi conseguibili mediante l’impiego di sistemi di automazione decisionale. Insidie ancora maggiori sono insite nel rischio che le tecnologie di intelligenza artificiale pervengano alla formulazione di conclusioni paradossali o discriminatorie in conseguenza di errori nella costruzione del “ragionamento” elettronico (cosiddetti bias cognitivi). In relazione a ciascuna di tali fattispecie, il riconoscimento costituzionale della responsabilità dell’Amministrazione e del funzionario agente per i danni cagionati dall’illegittimo esercizio del potere presuppone un intervento umano nello svolgimento dell’attività amministrativa automatizzata.
L’intervento umano è dunque indispensabile. Il responsabile del procedimento e il dirigente competente all’adozione del provvedimento finale devono occuparsi di scegliere correttamente il sistema, “alimentarlo” adeguatamente e analizzare sempre i risultati conseguiti dal programma informatico, approvando quelli validi e respingendo quelli fallaci. La giurisprudenza amministrativa, e oggi il legislatore, infatti ritengono che il cosiddetto principio di «non esclusività della decisione algoritmica» imponga al funzionario-persona fisica – poco importa in questa sede che si tratti del responsabile del procedimento o dell’organo competente ad adottare l’atto, se diverso – un esame definitivo del provvedimento informatico proposto dall’elaboratore elettronico, non soltanto sotto il profilo della sua conformità ai parametri legali, ma anche in relazione alla sua intrinseca logicità, credibilità e razionalità. Anche nel processo decisionale automatizzato «deve comunque esistere (…) un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. È il modello noto ai programmatori o ai coders come HITL (human-in-the-loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano» .

6. Appalti e intelligenza artificiale.
Il settore degli appalti pubblici, insieme a quello dei servizi pubblici, è quello in cui le tecnologie basate sull’intelligenza artificiale potranno avere estesa applicazione.
Iniziando con uno sguardo al passato – prima di arrivare a quanto stabilito dall’art. 30 codice dei contratti pubblici – è interessante rilevare che meno di venti anni fa il codice del 2006 (d. lgs. 12 aprile 2006, n. 163) presupponeva sostanzialmente una gara interamente basata su provvedimenti amministrativi cartacei, scritti e sottoscritti, pur essendo già in vigore il d. lgs. 7 marzo 2005, n. 82 (codice dell’amministrazione digitale). Per fare qualche esempio, all’epoca i bandi erano essenzialmente cartacei e dovevano essere pubblicati sui quotidiani nazionali e locali, il computer era visto come una sofisticata macchina da scrivere – che al più poteva aiutare a fare i complessi calcoli per individuare la c.d. soglia di anomalia – e la digitalizzazione, estremizzando un po’, si limitava alla possibilità di usare il fax al posto della raccomandata.
Già diversa fu l’impostazione col codice del 2016 (d.lgs. 18 aprile 2016, n. 50) sia perché nel frattempo alcune tecnologie si erano diffuse ed erano diventate comunemente disponibili sia perché il legislatore aveva già iniziato a prevedere la c.d. dematerializzazione dei documenti amministrativi. L’articolo 44 stabiliva la “digitalizzazione delle procedure di tutti i contratti pubblici, anche attraverso l’interconnessione per interoperabilità dei dati delle pubbliche amministrazioni”; si prevedeva poi la definizione delle migliori pratiche riguardanti metodologie organizzative e di lavoro, metodologie di programmazione e pianificazione, riferite anche all’individuazione dei dati rilevanti, alla loro raccolta, gestione ed elaborazione nonché soluzioni informatiche, telematiche e tecnologiche di supporto. Diverse disposizioni del codice inoltre richiamavano, integrandole, le norme del codice dell’amministrazione digitale, prevedendo tra l’altro l’obbligo dell’uso dei mezzi di comunicazione elettronici nello svolgimento di procedure di aggiudicazione (articolo 40) e per tutte le comunicazioni di gara nonché l’uso delle firme elettroniche (articolo 52). Per i bandi veniva introdotta una pubblicità essenzialmente on line. Significativa, al riguardo, era la previsione dell’articolo 73, comma 5, che faceva decorrere gli effetti giuridici che l'ordinamento connette alla pubblicità in ambito nazionale dalla data di pubblicazione sulla piattaforma digitale dei bandi di gara presso l'ANAC.
Il percorso è stato certamente portato a compimento col codice dei contratti pubblici del 2023 (d. lgs. 31 marzo 2023, n. 36) sia perché, come efficacemente detto nella relazione al codice, la digitalizzazione dell’intero ciclo di vita del contratto – ossia dalla programmazione all’esecuzione – è uno dei pilastri su cui si basa l’intero codice sia perché all’articolo 30 è dettata una disciplina che, andando oltre la digitalizzazione e la gestione attraverso piattaforme e servizi digitali tra loro interoperabili, ammette per l’automazione il ricorso a soluzioni tecnologiche, ivi incluse l’intelligenza artificiale e le tecnologie di registri distribuiti, nel rispetto delle specifiche disposizioni in materia.
In dottrina è già stato evidenziato che l’intelligenza artificiale, una volta “messa a terra”, potrebbe essere utile per l’analisi dei documenti di gara (ad esempio per verificarne la completezza) o per effettuare analisi statistiche volte a migliorare i meccanismi di monitoraggio del rischio di comportamenti contrari alla concorrenza o potenzialmente fraudolenti, oltre che per creare chatbox per interazioni rapide sulla cui rilevanza giuridica è bene un ulteriore approfondimento al pari di quanto avvenuto per le f.a.q., tra le piattaforme e gli operatori.
Gli obiettivi di celerità ed efficienza, oltre che di provata imparzialità delle decisioni amministrative, potrebbero essere di concreta realizzazione.
Naturalmente tutto questo, come stabilito dall’art. 30 del codice dei contratti pubblici, deve avvenire nel rispetto dei principi di:
a) conoscibilità e comprensibilità, per cui ogni operatore economico ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino e, in tal caso, a ricevere informazioni significative sulla logica utilizzata;
b) non esclusività della decisione algoritmica, per cui comunque esiste nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatizzata;
c) non discriminazione algoritmica, per cui il titolare mette in atto misure tecniche e organizzative adeguate al fine di impedire effetti discriminatori nei confronti degli operatori economici.
Non è lontana l’epoca in cui alle soluzioni basate sull’intelligenza artificiale, si potrà aggiungere il ricorso alle tecnologie basate sui registri distribuiti, o blockchains, tra l’altro, per validare le date di inoltro dei documenti di gara, garantirne l’immodificabilità, conservare i file di log delle procedure per verificare, ad esempio, a cosa sia imputabile un eventuale malfunzionamento della piattaforma, ecc. Se a tutto questo poi dovesse aggiungersi il ricorso ai c.d. smart contracts, il quadro per il prossimo futuro può davvero dirsi completo.

7. Conclusioni.

Le tecnologie informatiche offrono oggi strumenti di automazione decisionale il cui impiego determina un irrinunciabile potenziamento dei livelli di efficienza organizzativa e procedimentale della pubblica Amministrazione.
Come già in passato messo in evidenza , il processo di informatizzazione non può tuttavia risolversi nella violazione dei principi generali del diritto amministrativo, i quali costituiscono gli ineludibili parametri di adeguamento dei tradizionali moduli di esercizio della funzione pubblica alle nuove forme di automazione provvedimentale. Il percorso di trasformazione, pur non potendo prescindere da un ripensamento dei classici schemi di organizzazione delle pubbliche amministrazioni, deve comunque assicurare la scelta di software idonei al perseguimento degli scopi di interesse pubblico con un costante controllo umano sulla costruzione, sulla scelta e sull’utilizzo dei software di automazione decisionale .
Deve ritenersi altresì che, seppure in modo nuovo e in attesa di interventi del legislatore, il responsabile del procedimento sia tenuto ad assicurare l’esercizio delle facoltà partecipative previste dalla legge n. 241 del 1990, la corretta immissione delle informazioni destinate alla rielaborazione elettronica e la conformità del processo di automazione alle norme eurounitarie e nazionali sulla protezione dei dati personali. In ossequio al principio di «non discriminazione algoritmica», occorre prevenire poi il rischio che l’elaboratore elettronico formuli conclusioni illogiche, incoerenti o irrazionali o, peggio ancora, fondate su pregiudizi razziali, linguistici, culturali o altrimenti lesive della dignità umana.
In questa direzione, peraltro, si muove il disegno di legge S 1146, attualmente all’esame del Senato della Repubblica, nella parte in cui afferma che lo sviluppo di sistemi e di modelli di intelligenza artificiale avviene su dati e tramite processi di cui deve essere garantita e vigilata la correttezza, l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza, secondo il principio di proporzionalità in relazione ai settori nei quali sono utilizzati. Coerentemente a quanto sin qui rappresentato, si aggiunge che i sistemi e i modelli di intelligenza artificiale devono essere sviluppati e applicati nel rispetto dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità e della spiegabilità senza pregiudicare lo svolgimento con metodo democratico della vita istituzionale e politica.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.