testo integrale con note e bibliografia

AI Act Regolamento (UE)  2024/1689

DDL del Governo ital. in materia di intelligenza artificiale

1. Premessa.
La sempre più rapida e generalizzata diffusione dell`intelligenza artificiale (di seguito AI) sta modificando profondamente il mondo del lavoro. Le modifiche, da un lato, possono avere carattere positivo, ad esempio consentendo una più efficiente organizzazione della struttura produttiva e miglioramenti degli standard di sicurezza del lavoro, dall´altro fanno sorgere interrogativi etici per i rischi che esse comportano in tema di tutela dei diritti dei lavoratori soprattutto con riferimento alla gestione del rapporto, alla salute e alla privacy.
Con la pubblicazione sulla Gazzetta Ufficiale dell´Unione Europea del 12 luglio 2024 del Regolamento (UE) 2024/1689 sull´intelligenza artificiale (di seguito AI Act) assume una forma sostanzialmente definita il complesso quadro normativo europeo finalizzato ad apprestare, a favore del prestatore di lavoro (espressione intesa in senso ampio e non limitata quindi al lavoratore subordinato), una rete di tutele specifiche rispetto ai rischi derivanti dall`impatto, nel mondo del lavoro, dell´applicazione sempre più diffusa delle tecnologie digitali e, più recentemente, dell´AI.
Come è noto l´AI Act non riguarda unicamente il mondo del lavoro, essendo stato concepito e realizzato come un plesso di norme finalizzato a fissare, nell´ordinamento euro-unitario, un quadro giuridico complessivo, che vuole essere uniforme e coerente, idoneo a governare e indirizzare gli effetti sul mercato europeo dell´adozione e dell´uso di sistemi di AI.
In questo quadro complessivo trovano posto anche alcune norme specificamente dedicate al tema della tutela del lavoro e finalizzate a definire estensione e limiti entro cui i sistemi di AI possono essere sviluppati e utilizzati nel mondo del lavoro .
Il presente contributo si propone di fornire al lettore una prima analisi di tali norme nel più ampio contesto del complesso e articolato quadro normativo europeo specificamente dedicato alla tutela del lavoratore in relazione all´impatto delle tecnologie digitali.

2. Il quadro dei principi che hanno ispirato il legislatore europeo
Per meglio comprendere il significato e la portata delle norme dell´AI Act che rilevano rispetto alle complesse problematiche concernenti la tutela del lavoro, conviene preliminarmente soffermarsi su alcuni principi e valori che costituiscono la struttura portante del Regolamento e che hanno ispirato la formulazione delle norme ivi contenute.
In primo luogo deve essere evidenziato l´approccio antropocentrico, che, coerentemente con i valori dell´Unione enunciati dall´art. 2 del Trattato sull'Unione europea (TUE), mette l´intelligenza artificiale al servizio dell´uomo al fine di garantire un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea .
Appare inoltre importante sottolineare che, per esplicita scelta del legislatore europeo, le norme previste dall`AI Act non devono pregiudicare il vigente diritto dell`Unione in tema, per quanto interessa in questa sede, di occupazione e protezione dei lavoratori, rispetto al quale il Regolamento esercita un ruolo complementare . Di conseguenza, restano pienamente garantiti tutti i diritti e i mezzi di ricorso previsti da disposizioni di diritto dell'Unione a favore dei lavoratori . Inoltre (cfr. l´art. 2, comma 11) il Regolamento non osta a che l'Unione o gli Stati membri mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all'uso dei sistemi di AI da parte dei datori di lavoro, o incoraggino o consentano l'applicazione di contratti collettivi più favorevoli ai lavoratori.
In sostanza, in tema di occupazione e protezione dei lavoratori, il Regolamento non deve incidere negativamente né sul diritto dell'Unione in materia di politica sociale, né sul diritto del lavoro nazionale (purché sia conforme al diritto europeo) in tema di condizioni di impiego e condizioni di lavoro, comprese la salute e la sicurezza sul luogo di lavoro e il rapporto tra datori di lavoro e lavoratori. Lo stesso vale anche per l'esercizio dei diritti fondamentali riconosciuti dagli Stati membri e dall`Unione, compresi il diritto o la libertà di sciopero, il diritto o la libertà di intraprendere altre azioni contemplate dalla disciplina delle relazioni industriali negli Stati membri nonché il diritto di negoziare, concludere ed eseguire accordi collettivi, o di intraprendere azioni collettive .
Particolarmente rilevante inoltre appare l´esplicito riferimento alla Direttiva del Parlamento UE e del Consiglio relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali ; viene infatti ribadito che rimangono impregiudicate le disposizioni ivi contenute volte a migliorare le tutele dei prestatori di lavoro.
La filosofia di fondo che ha ispirato il legislatore europeo nella formulazione delle norme del Regolamento è costituita dall´applicazione di alcuni “orientamenti etici” elaborati, su incarico della Commissione europea, da un gruppo di esperti , con lo scopo di contribuire a garantire l´affidabilità e la compatibilità etica dell`AI. Al termine dei suoi lavori (aprile 2019) il gruppo, nel presentare le proprie conclusioni ha individuato sette principi etici, di seguito elencati:
1. intervento e sorveglianza umani;
2. robustezza tecnica e sicurezza;
3. vita privata e governance dei dati;
4. trasparenza;
5. diversità, non discriminazione ed equità;
6. benessere sociale e ambientale;
7. responsabilità.
Alcuni dei suddetti principi hanno, come è evidente, una rilevanza specifica per il mondo del lavoro. Mi riferisco, in particolare, al primo, che prevede, al fine di garantire il rispetto della dignità umana e dell'autonomia della persona, che il sistema di AI sia strutturato in modo da essere controllabile da esseri umani. Complementare ad esso è sicuramente il quarto, che impone, in particolare, la tracciabilità e conoscibilità dei processi decisionali adottati dall´AI. Infine il terzo e il quinto dei principi sopra elencati prevedono il rispetto della vita privata dell´individuo, anche attraverso la protezione dei dati personali nonché il divieto di discriminazione, imponendo in particolare l´eguaglianza di genere e la parità di accesso.
L´esplicito riferimento del legislatore europeo ai suddetti principi nasce dalla piena consapevolezza del fatto che i sistemi di AI rendono possibile, ove impropriamente utilizzati, la realizzazione di nuovi e potenti strumenti finalizzati a pratiche di manipolazione, sfruttamento e controllo sociale che, ovviamente, sono particolarmente pericolosi nel mondo del lavoro . Si pensi, in particolare, ai sistemi di AI che consentono di sfruttare le vulnerabilità di una persona o di uno specifico gruppo di persone dovute all'età, a disabilità o a specifiche situazioni sociali o economiche . Il riferimento esplicito è alle persone che vivono in condizioni di povertà estrema e le minoranze etniche o religiose, ma i rischi suddetti riguardano anche specifiche categorie di lavoratori come, ad esempio, quella dei migranti senza permesso di soggiorno.

3. Livelli di rischio dei sistemi di Intelligenza artificiale e tutela del lavoro.
L´AI Act è stato strutturato, coerentemente con i principi sopra ricordati, sulla base del criterio del rischio. Esso prevede infatti una classificazione dei sistemi di AI in base al livello di rischio che la loro utilizzazione comporta. I livelli di rischio sono quattro: a) inaccettabile; b) alto; c) limitato; d) minimo.
a. I sistemi di AI che comportano un rischio inaccettabile sono quelli che possono mettere a rischio valori e principi fondamentali dell’UE (in particolare, il rispetto della dignità umana, i principi di democrazia e dello stato di diritto). In linea di massima questi sistemi sono vietati; in casi specificamente indicati (ad esempio motivi di sicurezza pubblica) sono ammessi, ma sottoposti a severe restrizioni .
b. Sono considerati ad alto rischio i sistemi di AI che possono incidere in modo negativo sulla salute, la sicurezza e i diritti fondamentali delle persone . L´AI Act prevede che questi sistemi debbano soddisfare specifici requisiti e siano sottoposti a obblighi rigorosi per poter essere utilizzati; ciò al fine di ridurre al minimo il suddetto rischio.
c. I sistemi di AI che presentano un rischio limitato sono quelli che possono influenzare i comportamenti dei destinatari senza tuttavia comportare rischi eccessivi. Questi sistemi devono soddisfare, in particolare, il requisito della trasparenza, in modo da consentire agli utenti di essere consapevoli del fatto che interagiscono con un sistema di AI e di comprenderne le caratteristiche e le possibili limitazioni .
d. I sistemi di IA che presentano un rischio minimo o nullo sono quelli che non hanno alcun impatto diretto sui diritti fondamentali o sulla sicurezza delle persone, e che offrono ampi margini di scelta e controllo agli utenti. Questi sistemi sono stati lasciati esenti da particolari obblighi normativo, al fine di incoraggiare l’innovazione e la sperimentazione.
Con specifico riferimento alle esigenze del mondo del lavoro devono essere in primo luogo evidenziati alcuni divieti di carattere generale in quanto riferiti a sistemi che comportano rischi inaccettabili, e che rivestono una particolare importanza per la tutela dei prestatori di lavoro.
In primo luogo il divieto di utilizzazione di sistemi di categorizzazione biometrica , basati sui dati biometrici di persone fisiche, quali il volto o le impronte digitali, che consentono di trarre deduzioni o inferenze in merito alle opinioni politiche, all'appartenenza sindacale, alle convinzioni religiose o filosofiche, alla razza, alla vita sessuale o all'orientamento sessuale di una persona, come pure i sistemi che consentono l´attribuzione di un punteggio sociale alle persone fisiche (social screening) e che possono quindi portare a risultati discriminatori e alla lesione del diritto alla dignità della persona, ovviamente anche nel mondo dei rapporti di lavoro .
Di particolare rilievo è poi il divieto di utilizzazione di sistemi AI finalizzati a identificare o inferire emozioni . Ed infatti, ove si consideri lo squilibrio di potere nel contesto del rapporto di lavoro combinato con la natura invasiva di tali sistemi, questi ultimi potrebbero determinare un trattamento pregiudizievole o sfavorevole di talune persone fisiche o di interi gruppi di persone fisiche. Ne consegue il divieto di utilizzazione di sistemi di AI in grado di rilevare lo stato emotivo delle persone in situazioni connesse al luogo di lavoro.
Complementare a quest’ultimo divieto è quello di valutare e giudicare sulla base di previsioni (basate sull`intelligenza artificiale) di futuri comportamenti fondate unicamente su procedure di profilazione . Divieto che riveste particolare rilievo nel rapporto di lavoro, in particolare nella fase preliminare della selezione del prestatore di lavoro.
L´aspetto più significativo, per quanto concerne la materia in esame, è però costituito dal fatto che i sistemi di AI che incidono sui diritti dei lavoratori sono considerati sistemi ad alto rischio, con conseguente applicazione della disciplina limitativa alla quale ho in precedenza accennato.
Ed infatti l´Allegato III dell`AI Act, espressamente richiamato dall´art. 6, par. 2, prevede (punto 4.) che sono considerati ad alto rischio:
a) i sistemi di AI destinati a essere utilizzati per l'assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati;
b) i sistemi di AI destinati a essere utilizzati per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell'ambito di tali rapporti di lavoro.
In sostanza sono considerati ad alto rischio tutti i sistemi di IA utilizzati in tutte le forme di lavoro, sia autonomo che subordinato, per l’espletamento di funzioni tanto nel mercato del lavoro quanto nel rapporto di lavoro ed in tutte le fasi di vita del rapporto di lavoro (incluse quella della selezione in sede preassuntiva, della gestione e della cessazione del rapporto).
La ratio di tale previsione è chiaramente esplicitata nel Considerando n. 57 dove si legge, infatti, che tali sistemi possono avere un impatto significativo sul futuro dei prestatori di lavoro in termini di prospettive di carriera e sostentamento e sul rispetto dei loro diritti. Ed infatti, durante tutto il processo di assunzione, nonché ai fini della valutazione e della promozione delle persone o della gestione dei rapporti contrattuali legati al lavoro, i sistemi di AI possono consentire e perpetuare vecchie e nuove forme di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale. I sistemi di AI utilizzati per monitorare le prestazioni e il comportamento di tali persone possono inoltre comprometterne i diritti fondamentali in materia di protezione dei dati e vita privata.
È stato peraltro precisato che l’uso nel mondo del lavoro di sistemi di AI non rende tali sistemi sempre e comunque classificabili come ad alto rischio. Ed infatti nella versione finale del AI Act l’originaria presunzione assoluta di alto rischio per i sistemi di IA nel campo delle risorse umane è stata degradata a presunzione semplice e resa derogabile. Ciò si evince chiaramente dalla disposizione di cui all´art. 6, comma 3, a norma della quale un sistema ad alto rischio di cui all´allegato III, e quindi anche quei sistemi che riguardano il mondo del lavoro, non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche e se non influenza materialmente il processo decisionale.
Ma quali sono i vincoli che i sistemi ad alto rischio devono rispettare?
In primo luogo, sempre con riferimento all´ottica lavoristica, deve essere segnalato l´obbligo per il datore di lavoro che si giovi di un sistema di AI, di utilizzare tale sistema conformemente alle istruzioni fornite dal fornitore . Ciò implica che il sistema può essere utilizzato soltanto per finalità per le quali è stato progettato e realizzato e che, in caso di violazione di tale obbligo, il datore di lavoro può essere considerato responsabile. Accade infatti nella pratica, ad esempio, che un software non finalizzato al monitoraggio del comportamento dei lavoratori venga di fatto utilizzato proprio per tale scopo .
La disciplina dell`AI Act, coerentemente con il suo carattere di complementarietà, deve essere coordinata con quella della Direttiva n. 89/391 del 12 giugno 1989 concernente l´introduzione di misure volte a promuovere il miglioramento della sicurezza e di elevare il livello di garanzia della salute nel posto di lavoro. In particolare la Direttiva fa carico ai datori di lavoro di porre in atto tutte le misure necessarie a proteggere la salute e la sicurezza dei lavoratori, ivi compresa l´informazione e la formazione degli stessi anche in relazione all´introduzione di nuove tecnologie nel posto di lavoro .
Inoltre tali sistemi devono essere progettati e sviluppati in modo da consentire alle persone fisiche di sorvegliarne il funzionamento e garantire che siano utilizzati come previsto. A tal fine i sistemi devono essere sottoposti a vincoli operativi che il sistema stesso non può annullare e devono essere sottoposti a sorveglianza da parte di persone fisiche che dispongano delle competenze, della formazione e dell'autorità necessarie per svolgere tale ruolo . In particolare le persone fisiche alle quali è affidata la sorveglianza umana devono essere messi in condizione di decidere in qualsiasi situazione particolare, di non usare il sistema di AI ad alto rischio o altrimenti di ignorarne, annullarne o ribaltarne l´output . Coerentemente si prevede che le persone alle quali è affidata l'attuazione delle istruzioni per l'uso e della sorveglianza umana sui sistemi di AI devono disporre delle competenze necessarie, in particolare un livello adeguato di alfabetizzazione, formazione e autorità in materia per svolgere adeguatamente tali compiti .
Infine, in coerenza con il principio generale per cui tali sistemi devono essere progettati in modo da garantire un accesso pieno e paritario a tutti coloro che sono potenzialmente interessati dalle tecnologie di AI o che le utilizzano, il Regolamento prevede specificamente che tale garanzia si applica anche alle persone con disabilità e deve assicurare quindi il pieno rispetto delle loro dignità e diversità intrinseche .
In coerenza col principio della trasparenza, e nell´ottica secondo cui il diritto di informazione è accessorio e necessario rispetto all'obiettivo di tutelare i diritti fondamentali dei lavoratori, viene affermato , con specifico riferimento ai datori di lavoro, l´obbligo di informare i lavoratori o i loro rappresentanti in merito alla adozione programmata dei sistemi di AI ad alto rischio sul luogo di lavoro “se del caso, conformemente alle norme e alle procedure stabilite dal diritto e dalla prassi dell´Unione e nazionali in materia di informazione dei lavoratori e dei loro rappresentanti”. Tale disposizione, ancora una volta in ossequio al principio di complementarietà, è destinata a coprire situazioni in cui tali obblighi di informazione non siano previsti da strumenti giuridici già in vigore. Un esplicito riferimento è fatto alla Direttiva 2002/14/CE del Parlamento europeo e del Consiglio, che istituisce un quadro generale relativo alla informazione e alla consultazione dei lavoratori .
Nel quadro complessivo delle garanzie fin qui delineato un ruolo fondamentale spetta al diritto alla spiegazione dei singoli processi decisionali . Tale previsione, di carattere generale, appare particolarmente significativa nella materia dei rapporti di lavoro in relazione al fenomeno sempre più diffuso del c.d. algorithm management . In base a tale disciplina qualsiasi persona interessata oggetto di una decisione adottata dal deployer (e cioè, con riferimento alla materia in esame, dal datore di lavoro), in base all´output di un sistema di AI ad alto rischio, e che produca effetti giuridici o comunque incida significativamente su tale persona in un modo che essa ritenga avere un impatto negativo sulla sua salute, sulla sua sicurezza o sui suoi diritti fondamentali, ha il diritto di ottenere dal datore di lavoro spiegazioni chiare e significative sul ruolo e sul sistema di AI nella procedura decisionale e sui principali elementi della decisione adottata. Anche tale norma si applica nella logica del ruolo complementare del Regolamento, e cioè solo nella misura in cui il suddetto diritto alla spiegazione non sia altrimenti previsto dal diritto dell´Unione. È stato condivisibilmente affermato in dottrina che la combinazione delle disposizioni sopra citate (artt. 26 n. 7 e 86 n. 1 Regolamento) è funzionale a limitare il gap di informazioni del prestatore di lavoro in merito alle decisioni che lo coinvolgono, gap che si è notevolmente accresciuto a causa dell´uso dell´AI e costituisce quindi una forma di difesa, in particolare, contro il rischio di discriminazione.
Mi pare interessante notare che il Regolamento si preoccupa anche di incoraggiare i produttori di sistemi di AI ad elaborare ed applicare ai loro sistemi, su base volontaria, codici di condotta finalizzati, in particolare, alla tutela delle persone vulnerabili e a quelle con disabilità e individua, fra i soggetti da coinvolgere in tale attività – almeno con riferimento all´individuazione degli obiettivi da perseguire – le organizzazioni imprenditoriali e i sindacati.
Infine , fermo restando che rimane inalterata la previsione, sia nel diritto dell'Unione, sia in quello degli Stati membri, di mezzi di ricorso (in sede amministrativa o giurisdizionale) efficaci per le persone fisiche e giuridiche sui cui diritti e sulle cui libertà incide negativamente l'uso dei sistemi di AI, il Regolamento garantisce che qualsiasi persona fisica o giuridica che abbia motivo di ritenere che vi sia stata una violazione delle norme del Regolamento stesso ha il diritto di presentare un reclamo alla pertinente autorità di vigilanza del mercato. La persona che segnala violazioni del regolamento ha diritto alla fruizione dei meccanismi di protezione previsti dalla direttiva (UE) 2019/1937 (c.d. direttiva whistleblowing) .

4. Considerazioni conclusive
Lo sviluppo delle tecnologie digitali e, in particolare, dell´intelligenza artificiale ha suscitato, fra l´altro, una contrapposizione fra due diverse filosofie in tema di approccio normativo: da una parte si ritiene opportuna una normativa restrittiva e penetrante a tutela della società e dei diritti dei cittadini; dall´altra si preferisce una normativa minimale (c.d. laissez-faire approach) per favorire lo sviluppo tecnologico e l´innovazione. Con riferimento al mondo del lavoro si contrappongono, da un lato, l´interesse dei lavoratori alla tutela dei loro diritti e, dall´altro, l´interesse dei datori di lavoro che, investendo nell´innovazione tecnologica e, in particolare, nell´intelligenza artificiale, si ripromettono di ottenere maggiore produttività e quindi migliorare la competitività delle loro imprese.
Con l`AI Act l`Unione Europea ha optato chiaramente per la prima soluzione , avendo attribuito preminente rilievo all´esigenza di tutelare i diritti fondamentali dei cittadini e, per quanto più interessa in questa sede, dei prestatori di lavoro.
La tutela apprestata è tuttavia limitata, in quanto presidia unicamente alcuni diritti fondamentali, quali la privacy, la dignità, la non discriminazione ed il diritto a verificare ed eventualmente contestare decisioni datoriali assunte utilizzando sistemi di AI.
Non a caso il legislatore europeo ha fatto salve le normative europee e nazionali che prevedono, a favore di tutti i prestatori di lavoro o anche ad alcune categorie di essi, forme di tutela più penetrante ed efficace. In questo contesto gli Stati membri potranno trovare un ulteriore punto di riferimento nella recentissima Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law, adottata dal Comitato dei Ministri il 17 maggio 2024 e sottoscritto a Vilnius (Lituania) il 5 settembre, in occasione di una conferenza dei ministri della Giustizia. La Convenzione pone espliciti obblighi agli Stati firmatari di adottare misure per identificare, valutare, prevenire e attenuare i possibili rischi e valutare la necessità di una moratoria, di un divieto o di altre misure appropriate riguardanti l’utilizzo di sistemi di AI laddove tale utilizzo potrebbe presentare rischi incompatibili con le norme in materia di diritti umani. Dovranno inoltre determinare le responsabilità e stabilire l’obbligo di rendere conto in caso di impatto negativo, garantire che i sistemi di IA rispettino l’uguaglianza, compresa quella di genere, e assicurare il divieto di discriminazione e la protezione della privacy. Infine le parti che aderiscono al trattato dovranno assicurare la disponibilità di vie di ricorso e garanzie procedurali per le vittime di violazioni dei diritti umani legate all’utilizzo di sistemi di AI. Le persone che interagiscono con un sistema di AI devono, ad esempio, essere informate del fatto che stanno interagendo con un sistema di questo tipo.
Sotto altro profilo va sottolineato che un ruolo importante per favorire la realizzazione di misure di tutela più efficace nei confronti dei prestatori di lavoro può essere svolto dalla contrattazione collettiva chiamata a gestire i profondi cambiamenti derivanti dall´uso dell´AI nel mondo del lavoro, e quindi non solo a garantire la conservazione dei diritti tradizionalmente riconosciuti ai lavoratori ma anche a rafforzare una nuova generazione di diritti che traggono la loro origine dall´adozione, da parte del datore di lavoro, di sistemi di AI; mi riferisco, ad esempio, oltre alla trasparenza dei sistemi e alla giustificazione delle decisioni assunte per il loro tramite, al diritto ad avere una adeguata formazione.
Occorre pertanto assicurare ai rappresentanti dei lavoratori il diritto all´informazione, alla consultazione ed alla partecipazione. È stato in proposito condivisibilmente sottolineato che in sede di applicazione dell`AI Act sarà necessario che le organizzazioni sindacali acquisiscano competenze ed esperienze adeguate in tema di valutazione dei rischi derivanti dall´adozione di sistemi di intelligenza artificiale in modo da diventare interlocutori efficaci nelle valutazioni finalizzate a ridurre l´impatto negativo dei sistemi di AI e di tutelare così i diritti fondamentali dei prestatori di lavoro.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.