TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA
Lavoro ed intelligenza artificiale: tra disciplina euro-unitaria e diritto interno
Con una mossa d’anticipo non soltanto sull’entrata in vigore o sulla sua applicazione, ma anche sull’approvazione definitiva della prima storica disciplina in materia di intelligenza artificiale di livello euro-unitario – il famoso e atteso AI Act (Regolamento (UE) che stabilisce regole armonizzate sull'intelligenza artificiale) – il Governo italiano ha deciso di giocare un ruolo da protagonista nel processo normativo che adatterà l’ordinamento italiano alle sfide dell’intelligenza artificiale. Lo ha fatto attraverso la predisposizione di un disegno di legge di iniziativa governativa, approvato lo scorso 23 aprile dal Consiglio dei Ministri , con cui ha deciso di intervenire sugli spazi di integrazione e maggiore specificazione del disposto normativo euro-unitario che restano in capo agli Stati membri.
Come è stato rilevato, d’altronde, pur avendo scelto lo strumento del regolamento – che a differenza della direttiva, come noto, non necessita di uno specifico recepimento all’interno degli ordinamenti nazionali – il legislatore euro-unitario ha adottato una normativa che non «affronta né potrebbe affrontare tutte le problematiche giuridiche poste dall’intelligenza artificiale» .
È così che, al pari del Regolamento , il disegno di legge contiene disposizioni immediatamente precettive e deleghe in svariati ambiti della materia, presentando, quindi, un contenuto assai eterogeneo: dalla disciplina sulle autorità nazionali alle previsioni in materia di tutela del diritto d’autore fino ai profili penalistici.
In questo contesto di riferimento, la scelta di riservare una specifica attenzione alle tematiche lavoristiche è coerente tanto con la volontà politica del Ministro in carica quanto con il quadro euro-unitario, dal momento che quello del lavoro è un ambito in cui lo spazio per l’intervento normativo interno non è di risulta, ma espressamente previsto dalla disciplina sovranazionale, che all’articolo 2, paragrafo 11, prevede che il Regolamento «non osta a che l'Unione o gli Stati membri mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all'uso dei sistemi di IA da parte dei datori di lavoro, o incoraggino o consentano l'applicazione di contratti collettivi più favorevoli ai lavoratori».
È, quindi, in questa cornice di raccordo tra spazi regolativi interni e quadro normativo sovranazionale, che devono essere inquadrati i contenuti lato sensu giuslavoristici del disegno di legge.
Ambiti e prospettive di intervento del ddl governativo in materia di lavoro
Passando all’analisi dei contenuti di rilievo in ambito lavorativo – al di là delle due specifiche previsioni di delega relative alla formazione professionale di ampio raggio e a quella specifica dei professionisti rispetto alle competenze necessarie per adeguarsi all’IA (art. 22, comma 2, lett. b) e c)) – si possono distinguere alcune disposizioni che hanno una natura direttamente giuslavoristica e altre disposizioni che, pur non avendo tale natura, hanno ricadute su condizioni e modalità dell’attività lavorativa.
A questa seconda categoria possono essere ricondotte quelle disposizioni che, con specifico riferimento all’adozione dell’intelligenza artificiale nell’ambito di particolari settori e attività, definiscono il ruolo dell’IA all’interno dei processi decisionali. È il caso di settori particolarmente critici come quello sanitario (art. 7, comma 5) e giudiziario (art. 14, commi 1 e 2) e delle attività dei professionisti intellettuali (art. 12, comma 1) e di quelle delle pubbliche amministrazioni (art. 13, comma 2).
Si tratta di situazioni in cui il Governo ha ritenuto fosse necessario preservare autonomia e responsabilità delle decisioni – siano esse relative all’interpretazione della legge o alla valutazione delle prove; a «processi di prevenzione, diagnosi, cura e scelta terapeutica» (art. 7, comma 5); all’attività provvedimentale della PA o alle opere e servizi offerti dai professionisti intellettuali – rispetto agli esiti del sistema di intelligenza artificiale, che il disegno di legge, coerentemente con il Regolamento, definisce proprio come «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali» (art. 2, comma 1, lett. a); enfasi aggiunta). Tale finalità viene raggiunta tramite una limitazione dell’utilizzo utilizzo della tecnologia di intelligenza artificiale che viene ricondotto ad una mera funzione strumentale e di supporto o, in ambito giudiziario, a specifici compiti (organizzazione e semplificazione del lavoro giudiziario; ricerca giurisprudenziale e dottrinale).
Sebbene tali previsioni perseguano valori e interessi relativi a beni giuridici di rilievo esterno al rapporto di lavoro – meritando, quindi, uno specialistico approfondimento rispetto agli specifici ambiti dell’ordinamento su cui insistono (dall’amministrazione della giustizia alla garanzia della salute fino alla tutela del consumatore e del cittadino-utente del servizio amministrativo – i vincoli che riguardano attività e strutturazione dei servizi e prestazioni offerte incidono indirettamente sull’attività lavorativa dei soggetti coinvolti. Al di là della difficile definizione delle nozioni di strumentalità e supporto – fino a che punto l’IA è strumentale e di supporto e qual è l’intervento umano minimo a questo fine? – le ricadute, oltre che nel rapporto con il destinatario del servizio, potranno allora riverberarsi anche in termini di conformazione della prestazione lavorativa e di esatto adempimento nell’ambito dei rapporti di lavoro subordinato, con possibili sanzioni disciplinari derivanti da un uso non corretto dei sistemi di intelligenza artificiale.
Passando all’altra categoria di disposizioni, il nucleo direttamente giuslavoristico del disegno di legge è rappresentato dagli articoli 10 e 11: il primo contenente disposizioni sull’utilizzo dell’intelligenza artificiale in materia di lavoro , volte a regolarne funzionamento e finalità e direttamente incidenti sulle future prassi d’uso di tali tecnologie; il secondo di carattere istituzionale e procedurale, relativo al monitoraggio nell’ambito di un osservatorio dedicato all’impatto dell’IA sul lavoro a guida ministeriale.
I vincoli del ddl nel raccordo con il (futuro) quadro euro-unitario
Benché in anticipo – almeno in termini di discussione parlamentare – rispetto all’applicazione della disciplina prevista all’interno dell’AI Act, i tre commi di cui si compone l’art. 10 del disegno di legge governativo devono essere ricondotti, almeno prima facie, allo spazio regolativo riconosciuto agli Stati dal già richiamato art. 2 del Regolamento europeo per la definizione di migliori tutele per i lavoratori, che investe tanto discipline pregresse quanto interventi in materia successivi.
Occorre, di conseguenza, valutare in che modo questi vincoli previsti dal disegno di legge si raccordino con la disciplina euro-unitaria, con cui – in caso di approvazione – si troverà a interagire a partire dal 2026 : se, infatti, fino a quella data tale disciplina potrà essere letta, analogamente a quanto avvenuto con l’art. 1-bis del d.lgs. n. 152/1997 , come anticipazione delle normative europee, la sopravvivenza successiva delle previsioni del ddl dipenderà da un giudizio di compatibilità. Questo salvo non aderire ad una lettura dell’intervento normativo che è stata proposta, con validi argomenti, in sede di primo commento al disegno di legge , come rispondente a «una funzione sostanzialmente ricognitiva», tanto da far dubitare in radice di un effettivo spazio di applicazione residuo successivo per l’art. 10.
Chi scrive condivide il giudizio sulla natura ricognitiva della proposta regolatoria governativa, indice anche del grado di difficoltà di intervento su una materia tanto innovativa e complessa, ma, pur a fronte della meritoria attenzione rispetto all’adozione dell’IA nei contesti di lavoro, intravede degli elementi di criticità derivanti dalla formulazione e dalla tecnica normativa delle disposizioni che potrebbero avere ripercussioni rilevanti.
Le finalità dell’adozione dell’IA nei luoghi di lavoro
Venendo al merito delle questioni, con il primo comma il disegno di legge si interessa delle finalità d’uso dell’IA nei contesti di lavoro, prevedendo che tali tecnologie sono impiegate «per migliorare le condizioni di lavoro, tutelare l’integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea». Se è effettivamente difficile riscontrare un valore immediatamente precettivo di tale disposizione dichiarativa, la dimensione finalistica dell’adozione dell’intelligenza artificiale fotografata dalla stessa lascia spazio ad una interpretazione più pregnante del disposto normativo, soprattutto se posto in relazione con l’art. 2, paragrafo 11, del Regolamento.
Il tenore letterale della disposizione potrebbe, infatti, essere interpretato in termini di maggior tutela dei lavoratori in una logica ad excludendum di usi per finalità alternative e ulteriori. Per come formulata, infatti, e dovendo riconoscere alla stessa un effetto giuridico al di là della mera descrizione (esemplificativa) di possibili usi della tecnologia, la disposizione in commento sembrerebbe identificare delle specifiche finalità che giustificano l’utilizzo dei sistemi di IA nei contesti di lavoro. Se è probabile che l’effettiva intenzione del legislatore non fosse quella di vincolare l’utilizzo dell’IA al perseguimento di una delle finalità nominate, una tale lettura non pare peregrina e dalla stessa discenderebbe un difficile sindacato giudiziale delle effettive finalità dell’adozione dell’intelligenza artificiale da parte dei datori di lavoro. La genericità delle nozioni utilizzate – es. miglioramento condizioni di lavoro; accrescimento della qualità delle prestazioni lavorative e della produttività delle persone – apre, d’altronde, ad interpretazioni in termini più o meno estesi e, anzi, la scelta dell’estensore di concentrarsi sugli aspetti di possibile beneficio per i lavoratori (ad esempio, come è stato sottolineato, «non una mera “salvaguardia”» ma addirittura un miglioramento delle condizioni di lavoro) , potrebbe risultare oltremodo vincolante rispetto ai molteplici ambiti d’uso dell’intelligenza artificiale nei contesti di lavoro.
Modalità del trattamento e trasparenza
Con il comma 2, l’intento regolatorio del Governo passa dalla dimensione delle finalità a quello del corretto trattamento dei dati in termini di affidabilità, sicurezza e trasparenza – quest’ultimo vero e proprio caposaldo della disciplina in materia – cui si aggiungono i profili relativi al rispetto della dignità umana e della riservatezza dei dati. Alla affermazione di tali generali principi di riferimento, la disposizione fa seguire in un secondo periodo la previsione dell’obbligo di informazione in materia di utilizzo dell’IA da parte di datori di lavoro e committenti, tramite riconduzione a casi e modalità individuate dal già richiamato art. 1-bis del d.lg. n. 152/1997.
Non pare problematico, ma al più privo di una propria efficacia giuridica, il primo periodo della disposizione: il richiamo a quei principi fondamentali relativi alle modalità del trattamento e alla tutela dei beni giuridici della dignità e della riservatezza, infatti, è inverato da disposizioni vigenti e, in prospettiva, da quelle di prossima applicazione presenti in altri atti normativi, tanto che è difficile rintracciare in tale previsione un contenuto di maggior (o anche solo di nuova e diversa) tutela.
Diversamente si deve opinare rispetto al secondo periodo del comma 2, dove sembrano emergere dei potenziali profili di contrasto con la disciplina euro-unitaria.
L’art. 26 del Regolamento, prevede, infatti, che «[p]rima di mettere in servizio o utilizzare un sistema di IA ad alto rischio sul luogo di lavoro, i deployer che sono datori di lavoro informano i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all'uso del sistema di IA ad alto rischio. Tali informazioni sono fornite, se del caso, conformemente alle norme e alle procedure stabilite dal diritto e dalle prassi dell'Unione e nazionali in materia di informazione dei lavoratori e dei loro rappresentanti». Ai sensi dell’allegato III del Regolamento (§ 4), sono da ritenersi come ad alto rischio nell’ambito del settore dell’occupazione, gestione dei lavoratori e accesso al lavoro autonomo: «i sistemi di IA destinati a essere utilizzati per l'assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati» e «i sistemi di IA destinati a essere utilizzati per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell'ambito di tali rapporti di lavoro».
Oltre a non prevedere – a differenza del Regolamento, ma anche della disposizione espressamente richiamata – che le informazioni debbano essere fornite tanto ai lavoratori quanto ai rappresentanti dei lavoratori , la scelta di assimilare l’intelligenza artificiale di cui al Regolamento alla previsione sull’algorithmic management – certamente rappresentativa di una volontà anticipatoria del legislatore interno del 2022, ma fortemente collegata ad altro progetto euro-unitario (c.d. Direttiva Piattaforme) – produce qualche incoerenza e attrito tra le due discipline. Occorre in questo senso rilevare, in accordo con la prima dottrina in materia , che la nozione di intelligenza artificiale di cui al Regolamento è diversa rispetto a quella di sistemi decisionali e di monitoraggio integralmente automatizzati adottata dal legislatore interno, rientrando nella seconda anche sistemi meno sofisticati e nella prima anche tecnologie che non rispondono alle caratteristiche delineate dal legislatore per l’applicazione degli obblighi informativi in materia di management algoritmico.
Ci si riferisce, da un lato, alla ampia definizione di IA, che prescinde da qualsiasi considerazione di “integralità” del sistema automatizzato, invece richiesta – a partire dal DL Lavoro del 2023: «sistemi decisionali o di monitoraggio integralmente automatizzati» – dal comma 1 dell’art. 1-bis, ai fini dell’applicazione degli obblighi informativi verso lavoratori e loro rappresentanti. Dall’altro, si deve considerare la non piena coincidenza tra gli ambiti d’uso individuati dalle due disposizioni rispetto al rapporto di lavoro: si pensi, per esempio, al tema delle indicazioni rilevanti ai fini dell’assunzione (così nel d.lgs. n. 152/1997), da cui sembrerebbe esorbitare, salvo interpretazioni ampiamente estensive, l’uso dell’intelligenza artificiale per pubblicare annunci di lavoro mirati come definitivo nell’ambito del Regolamento AI.
Si tratta di un disallineamento che non può essere risolto né tramite il principio enunciato al comma 2 dell’art. 1 del disegno di legge secondo cui «[l]e disposizioni della presente legge si interpretano e si applicano conformemente al diritto dell’Unione europea» né tramite la mera disapplicazione della disposizione interna quando rilevino tecnologie riconducibili al Regolamento IA, dal momento che permarrebbero dei profili di non sovrapposizione tra le due discipline. In questo senso, se una esigenza di adattamento o migliore specificazione nel contesto interno emerge, è quella di riformulare il testo vigente in modo tale che sia in grado di comprendere globalmente nuove (Regolamento IA) e vecchie (art. 1-bis) declinazioni delle tecnologie oggetto di obbligo informativo, così da allargare i confini della tutela e renderla più effettiva.
Le garanzie antidiscriminatorie
L’ultimo comma dell’art. 3 prescrive che «[l]’intelligenza artificiale nell’organizzazione e nella gestione del rapporto di lavoro garantisce l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione del sesso, dell’età, delle origini etniche, del credo religioso, dell’orientamento sessuale, delle opinioni politiche e delle condizioni personali, sociali ed economiche, in conformità con il diritto dell’Unione europea».
Ad una prima lettura della disposizione, la riflessione su questo comma dovrebbe essere strutturata in termini analoghi a quanto rilevato con riferimento al primo periodo della disposizione precedente: non si ravvisa, infatti, un contenuto precettivo autonomo rispetto alla disciplina antidiscriminatoria europea che, non a caso viene richiamata in chiusura dello stesso comma. Sennonché, come è stato notato , rispetto ai fattori di discriminazione individuati dalla normativa euro-unitaria, la lista offerta dal comma 3 è estesa al fattore (meglio ai fattori) delle “condizioni personali, sociali ed economiche”.
Si tratta di una formulazione sconosciuta anche nel contesto interno e che si caratterizza per una assoluta genericità che potrebbe dar luogo a non pochi dubbi interpretativi rispetto alla concreta individuazione della categoria di destinatari o di atti vietati sia in termini di discriminazione diretta che, soprattutto, in termini di discriminazione indiretta.
Monitoraggio e strategie di intervento per il futuro: il ruolo dell’Osservatorio
Sicuramente non problematico può considerarsi l’art. 11, che, nel prevedere l’istituzione dell’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro, può essere, anzi, inteso come risposta ad istanze emerse dal mondo produttivo e sindacale di costruzione di un “luogo” di confronto e monitoraggio degli effetti dell’IA sul lavoro, così da poter valutare le specifiche esigenze che ne derivano sia in termini di tutela dei lavoratori che in termini di competitività delle imprese e del sistema economico italiano.
Nello specifico si prevede che, con il duplice obiettivo di massimizzare i benefici e contenere i rischi dell’IA, presso il Ministero sia istituito un osservatorio con «con il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo, monitorare l’impatto sul mercato del lavoro, identificare i settori lavorativi maggiormente interessati dall’avvento dell’intelligenza». Lo stesso Osservatorio dovrà, inoltre, promuovere «la formazione dei lavoratori e dei datori di lavoro in materia di intelligenza artificiale» (art. 11, comma 1).
Si tratta di obiettivi ambiziosi e necessari che rispondono a fondamentali esigenze di governo dell’impatto dell’intelligenza artificiale nei contesti di lavoro in termini di sostenibilità economica e sociale: la rapida evoluzione e le possibili declinazioni che prenderà il fenomeno nel Paese dipenderà, infatti, da scelte e indirizzi che non possono essere presi una volta per tutte e, da ciò, l’importanza di azioni di monitoraggio e di condivisione di strategie, oltre al fondamentale riferimento alla formazione che, significativamente, non è dei soli lavoratori, ma anche dei datori di lavoro, che devono essere preparati a fare buon uso dell’IA tanto per ragioni etiche e sociali quanto per ragioni di competitività.
Rispetto a tale previsione, occorrerà allora valutare l’effettiva composizione dell’Osservatorio, rimessa ad un successivo decreto del Ministro del Lavoro, che dovrà anche individuare modalità di funzionamento e ulteriori compiti dell’Osservatorio (art. 11, comma 2): da ciò dipenderà in maniera rilevante la sua effettiva capacità di raccogliere e rappresentare le istanze provenienti dal mondo produttivo. Da questo punto di vista, come osservato anche dalla letteratura internazionale , un ruolo di rilievo potranno giocarlo le parti sociali che sono chiamate – a partire proprio dal piano istituzionale e poi nei diversi livelli di contrattazione e confronto – a gestire l’implementazione dell’IA nei diversi settori e contesti produttivi, bilanciando gli interessi delle diverse parti, ma anche cercando di massimizzare secondo logiche proattive i benefici.
Dall’anticipazione… all’azione: la giusta cautela su tematiche di frontiera
A fronte delle criticità, ma anche di spunti e prospettive che sarà opportuno coltivare in futuro, individuate nell’analisi svolta nelle precedenti pagine, al Governo si può riconoscere il merito di aver lanciato il sasso nello stagno, avviando un percorso normativo che potrà permettere all’Italia di arrivare pronta a gestire quegli spazi di intervento a maggior tutela riconosciuti agli Stati membri, forte anche di un’azione regolatoria in materia di nuove tecnologie e diritto del lavoro che, ben prima degli obblighi informativi introdotti nel 2022, trova un riferimento fondamentale nella disciplina statutaria dell’art. 4 e nell’evoluzione giurisprudenziale che lo ha caratterizzato.
Rispetto al processo normativo di adattamento della disciplina giuslavoristica all’intelligenza artificiale – che potrà con riferimento al ddl beneficiare della fase di discussione parlamentare, per scongiurare i possibili rischi di contrasto o incoerenza con i contenuti del futuro Regolamento, ma anche inavvertiti rischi di limitazione e ostacolo rispetto alle potenzialità dell’intelligenza artificiale – una rilevante accelerazione è stata impressa dallo stesso esecutivo nel campo del diritto del mercato del lavoro.
Con una disposizione introdotta all’interno del c.d. Decreto Coesione (d.l. n. 60/2024), infatti, il Governo ha deciso di avvalersi dell’intelligenza artificiale per il miglioramento del nostro sistema di politiche attive del lavoro, secondo una linea programmatica già in precedenza espressa dal Ministero del Lavoro e che trova supporto anche nella riflessione scientifica internazionale e nazionale .
Nello specifico, al comma 3 della disposizione si prevede che “[a]l fine di favorire l'incontro tra domanda e offerta di lavoro, il Sistema Informativo per l'inclusione sociale e lavorativa utilizza, nei limiti consentiti dalle disposizioni vigenti, gli strumenti di intelligenza artificiale per l'abbinamento ottimale delle offerte e delle domande di lavoro ivi inserite».
La disposizione, che è stata letta in sede di prima analisi in termini di potenziale rivoluzione delle politiche attive del lavoro, tale da poter «segnare l’inizio della fine dei centri per l’impiego regionali così come li abbiamo conosciuti finora» , deve essere certamente accolta con favore, ma al tempo stesso con la necessaria cautela.
Senza entrare nel merito di una disposizione che dovrà essere necessariamente integrata da discipline di maggior dettaglio e che già si mostra consapevole dei fondamentali “limiti consentiti dalle disposizioni vigenti” (si pensi, in primo luogo, all’art. 22 del Regolamento(UE) 2016/679 in materia di processi decisionali automatizzati), è evidente che i relativi trattamenti espongono i potenziali lavoratori a rischi e criticità analoghe a quelle cui il disegno di legge che qui si commenta cerca di rispondere con l’art. 10, pensato, però, per il rapporto e non per il mercato del lavoro. E, d’altronde, i rischi dell’intelligenza artificiale e dei sistemi automatizzati nell’ambito dell’azione dello Stato in ambito sociale sono emersi con piena chiarezza nel famoso scandalo di Syri nei Paesi Bassi , in cui un sistema automatizzato con effetti discriminatori è stato utilizzato per l’individuazione di quali beneficiari di sussidi che fossero a maggior rischio di commettere delle frodi.
Di conseguenza anche in questo ambito occorre che nei processi di implementazione si assicurino le garanzie di trasparenza e le tutele contro i rischi di discriminazione o, comunque, di errore della macchina. Nel proseguire questo iter normativo il legislatore dovrà sforzarsi di comprendere le implicazioni dell’impatto dell’IA sul diritto del lavoro in senso ampio, integrandosi sullo zoccolo delle tutele in materia di trattamento dei dati personali e, in futuro, del Regolamento IA, valorizzando lo statuto giuridico della materia senza creare binari paralleli di tutela rispetto alla posizione del lavoratore nel mercato e nel rapporto. Una criticità, quest’ultima, che salvo interpretazioni estensive, sembrerebbe caratterizzare anche la disciplina euro-unitaria in materia, laddove tra i sistemi di IA ad altro rischio nella dimensione lavoristica oltre a quelli utilizzati dal “datore di lavoro” individua quelli relativi a servizi pubblici essenziali (allegato III), tra cui i considerando fanno rientrare per quanto qui di interesse soltanto quelli relativi alle prestazioni di di sicurezza sociale (considerando 58).