testo integrale con note e bibliografia
1. Considerazioni preliminari: decisione dell’IA e decisione umana.
L’utilizzo dell’intelligenza artificiale (di seguito: IA) nella gestione del rapporto di lavoro richiede di svolgere qualche riflessione preliminare sui sistemi che possono essere utilizzati e sulle loro modalità di funzionamento .
La prima distinzione che occorre fare è quella tra sistemi deterministici e sistemi non deterministici . I primi si limitano ad applicare le istruzioni che sono state inserite in sede di progettazione, cosicché il processo decisionale è trasparente e il risultato prevedibile ex ante. I secondi, invece, applicano un metodo statistico-probabilistico per effettuare una previsione : possono essere annoverati tra i sistemi trasparenti nelle loro modalità di funzionamento, benché l’esito del processo computazionale resti incerto ex ante. Come è stato osservato, algoritmi non deterministici e deterministici possono essere posti in sequenza in un sistema di IA, per es. agganciando la valutazione dei lavoratori nello svolgimento di un determinato compito (algoritmo deterministico) a un tempo standard stimato (algoritmo non deterministico) .
Tra i sistemi di IA non deterministici spiccano quelli che si valgono di algoritmi di apprendimento automatico : qui il modello decisionale viene generato dal sistema stesso, in una fase di apprendimento, e viene continuamente affinato anche successivamente. Si tratta del cd. machine learning, caratterizzato dall’utilizzo di quantità ingenti di dati (data set), e da livelli crescenti di autonomia nello svolgimento dei compiti assegnati mano a mano che si progredisce, attraverso le reti neurali, verso il cd. deep learning . In questi sistemi, che sono anche i più utili ed efficienti nel conseguimento degli obiettivi fissati dal programmatore, si raggiunge, però, anche il livello massimo di imprevedibilità dell’esito e di opacità del processo decisionale .
Applicando metodi statistico-probabilistici, benché estremamente raffinati, i sistemi di IA più evoluti basano le proprie decisioni sulle correlazioni riscontrate nell’ambito dei dati processati . Qui risalta ictu oculi la principale differenza tra la decisione di un sistema di IA e la decisione umana. L’intelletto umano, infatti, procede piuttosto ricercando i legami causali che connettono i fenomeni riscontrati nella realtà, e nei processi decisionali si lascia condizionare, specialmente quando sono coinvolti altri esseri umani, come accade nel rapporto di lavoro, da sentimenti che i sistemi di IA non sono in grado di replicare, come l’empatia, la comprensione, la solidarietà.
2. L’Algorithmic Management e il suo impatto sui lavoratori.
Occorre ora dire qualcosa sull’Algorithmic Management, ovvero sull’utilizzo dell’IA nell’organizzazione del lavoro e dei relativi rapporti . Il tema si incrocia, per un verso, con quello del lavoro nelle piattaforme , per l’altro, con Industria 4.0 e la cd. smart factory . Infatti, le piattaforme (si pensi a quelle di food delivery) costituiscono un esempio tipico di gestione del processo di erogazione del servizio integralmente affidato a sistemi algoritmici. Nella cd. smart factory, in modo analogo anche se in contesti produttivi del tutto diversi, segmenti più o meno ampi dell’attività sono monitorati costantemente, ottimizzati e corretti, con o senza l’intervento umano. In entrambi i casi è possibile riscontrare sistemi di IA che decidono direttamente, o assistono le persone nell’assunzione di decisioni, con riguardo a un vastissimo campionario di atti datoriali: cambi di turno, mutamenti di mansioni, promozioni, trasferimenti, irrogazione di sanzioni disciplinari, licenziamenti.
La dottrina ha tempestivamente segnalato i rischi insiti nel modus procedendi dell’IA. Le istruzioni dell’algoritmo deterministico potrebbero essere discriminatorie, quanto meno indirettamente, come accaduto nel caso dell’algoritmo Frank di Deliveroo, scrutinato dai giudici bolognesi nel 2020 . Ma un rischio analogo sussiste, a fortiori, nel caso di sistemi di IA non deterministici: questi, infatti, inglobano gli eventuali biases presenti nei dati di addestramento o in quelli acquisiti successivamente . Anzi, poiché i sistemi di machine learning procedono per correlazioni riscontrate su dati esistenti, essi tendono quasi naturalmente a replicare eventuali discriminazioni in essi presenti, e il problema è ulteriormente aggravato dalla tendenziale opacità dei più sofisticati tra questi sistemi. Ma anche quando una determinata decisione del sistema di IA non sia discriminatoria, potrebbe, comunque, essere arbitraria : l’esistenza di una correlazione tra due fenomeni, sulla quale il sistema basa una determinata decisione, non dice nulla, infatti, sul legame causale tra di essi.
Sempre in dottrina sono stati evidenziati i pericoli psicofisici della gestione algoritmica dei rapporti di lavoro . Nelle situazioni più estreme, come quelle che si verificano nelle piattaforme di food delivery, il monitoraggio delle prestazioni assume contorni totalizzanti: i rider sono indotti a una competizione esasperata per ottenere le migliori valutazioni e conseguentemente gli slot più remunerativi. Si verifica il cd. effetto nudging: i lavoratori si conformano spontaneamente alle richieste dell’IA, nella consapevolezza che il loro comportamento solutorio è monitorato e valutato in tempo reale. Più in generale, è stato da più parti segnalato che nei sistemi dell’Industria 4.0 il potere direttivo e quello di controllo tendono ormai a confondersi , spesso veicolati dallo stesso strumento di lavoro, in un continuo processo di misurazione e correzione della prestazione lavorativa . Gli effetti di straniamento e alienazione che conseguono allo svolgimento dell’attività lavorativa in ambienti di questo tipo sono altrettanto noti: per certi versi, si tratta della realizzazione tecnologica del famoso Panoptikon benthamiano .
Occorre, infine, rilevare il disallineamento tra i dati normativi che regolano l’esercizio dei poteri datoriali e i processi attraverso i quali operano i sistemi di IA . Ciò non deve stupire, poiché le categorie giuridiche si sono sedimentate, nei secoli, sui meccanismi di funzionamento dell’intelletto umano e sono portatrici dei valori del contesto sociale di riferimento. Per es., il potere direttivo e lo ius variandi devono essere esercitati secondo buona fede e correttezza, clausole generali impossibili da applicare per qualsiasi sistema di IA . Ma altrettanti problemi presentano pure le norme generali : si pensi all’elasticità di concetti quali il giustificato motivo soggettivo od oggettivo di licenziamento. Il diritto antidiscriminatorio, tramite il meccanismo della parziale inversione dell’onere della prova, richiede al datore di esplicitare le ragioni per le quali una determinata decisione è stata assunta: ma il meccanismo decisionale del sistema di IA, in ipotesi basato sul deep learning, potrebbe rimanere oscuro . L’art. 2087, c.c. impone la tutela dell’integrità psico-fisica del lavoratore, stabilendo un vincolo assai importante al potere organizzativo datoriale : si tratta di un limite che contrasta frontalmente con l’utilizzo dell’IA per incrementare l’efficienza dei processi produttivi. L’art. 4 dello Statuto dei lavoratori, e più in generale il GDPR, vietano il monitoraggio continuo e anelastico dell’attività dei lavoratori . E si potrebbe continuare.
Prima di procedere oltre, però, occorre sgombrare il campo dall’equivoco che l’utilizzo dell’IA possa in qualche modo deresponsabilizzare il datore di lavoro. Il datore che si vale di un sistema di IA per esercitare le proprie prerogative sarà responsabile degli atti giuridici posti in essere esattamente come quello che assume le proprie decisioni in modo del tutto autonomo .
A una conclusione di questo tipo conducono solide ragioni. Anzitutto, il datore di lavoro ha scelto consapevolmente, per meglio perseguire i propri fini di organizzazione dell’impresa, di servirsi di un sistema di IA: cuius commoda, eius et incommoda. In secondo luogo, anche laddove il processo decisionale fosse totalmente automatizzato, l’atto finale sarebbe comunque sempre formalmente assunto dal datore di lavoro. Infatti, dalla lettura congiunta degli artt. 1228 e 2086, c.c. si desume che l’esercizio del potere direttivo è riferibile al datore anche quando egli si serva della line aziendale. A fortiori, pertanto, argomentando sulla base dell’analogia iuris, si deve giungere a un tale esito quando egli abbia deciso di valersi del management algoritmico. Infine, come lo stesso impianto del regolamento europeo sull’IA testimonia (v. infra il par. 4), l’approccio giuridico europeo è antropocentrico: l’IA non è e non sarà, nel prossimo futuro, un soggetto di diritto, bensì soltanto un oggetto.
3. Il quadro regolativo in fieri: una governance multilivello.
E’ ora giunto il momento di affrontare il quadro regolatorio dell’IA, e in particolare gli aspetti che riguardano l’utilizzo della stessa a fini di controllo e valutazione della prestazione, con il connesso esercizio del potere disciplinare. Il tema è, dunque, quello dei sistemi di monitoraggio e decisionali automatizzati.
L’apparato normativo è in costruzione e caratterizzato da un impianto multilivello . Il regolamento europeo sull’IA è stato definitivamente approvato il 21 maggio 2024 dal Consiglio dei Ministri, ed è in attesa di pubblicazione sulla Gazzetta ufficiale dell’UE , mentre sulla direttiva relativa alla tutela dei lavoratori delle piattaforme digitali è stato raggiunto l’accordo tra Parlamento e Consiglio, ma manca ancora il voto formale di quest’ultimo . Sempre a livello dell’Unione europea, il reg. n. 679 del 2016 (General Data Protection Regulation - GDPR) offre già alcune tutele, invero abbastanza robuste , quando una decisione sia basata unicamente su un trattamento automatizzato. Le tutele europee si integrano e potenziano l’un l’altra, e lasciano altresì spazio agli Stati membri per dettare disposizioni di maggior favore per i lavoratori, direttamente o tramite la contrattazione collettiva (così espressamente il reg. IA: art. 2, co. 11). Qui giova ricordare che le parti sociali di livello europeo si sono attivate nel 2020, con un accordo quadro sulla digitalizzazione .
La cornice normativa è piuttosto frammentaria anche nel nostro Paese: per i ciclofattorini lavoratori autonomi vi sono alcune disposizioni nel capo V-bis del d.lgs. n. 81/2015 , mentre l’art. 1-bis, d.lgs. n. 152/1997, introdotto dal decreto trasparenza (d.lgs. n. 104/2022) e poi modificato dal decreto lavoro dello scorso anno (d.l. n. 48/2023), potenzia l’informazione in favore dei lavoratori che siano assoggettati a sistemi di monitoraggio e decisionali integralmente automatizzati . Sulla scorta dell’approvazione del reg. IA, il Governo ha elaborato un d.d.l. di accompagnamento (d.d.l. sull’intelligenza artificiale n. 1146, presentato il 20 maggio 2024 al Senato), che, dopo aver ribadito i capisaldi europei della regolazione del fenomeno, in materia lavoristica, inter alia, conferma e richiama l’art. 1-bis, d.lgs. n. 152/1997. Nell’ordinamento italiano non devono essere sottovalutati l’art. 8 dello Statuto dei lavoratori , che impedisce al datore di raccogliere informazioni irrilevanti per lo svolgimento della prestazione lavorativa, e soprattutto l’art. 4 dello Statuto, che predispone una robusta tutela individuale e collettiva in favore dei lavoratori sottoposti a controlli tecnologici .
4. Il regolamento UE sull’IA e il GDPR (artt. 13-15, 22 e 35).
L’approccio europeo all’IA è antropocentrico . Il reg. IA si pone il duplice obiettivo di incentivare lo sviluppo e la diffusione dei sistemi di IA e di garantire, al contempo, livelli elevati di tutela della salute, della sicurezza e dei diritti fondamentali dei cittadini europei (art. 1 e considerando 1). Conseguentemente, la tecnica di tutela si basa sui principi della precauzione e della gestione del rischio : i sistemi di IA sono suddivisi in sistemi vietati, sistemi ad alto rischio e sistemi a basso rischio. Sono coerentemente esclusi dall’ambito di applicazione del regolamento i sistemi puramente deterministici, «basati sulle regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico» (considerando 12), poiché non richiedono una regolazione aggiuntiva rispetto a quella già esistente . Va, inoltre, osservato che il regolamento si applica al sistema di IA in quanto tale, a prescindere dall’uso che il deployer [la persona fisica o giuridica che lo utilizza per fini professionali – art. 3, n. 4)] ne faccia: ovvero per trarne previsioni, contenuti, raccomandazioni o a fini direttamente decisionali (considerando 12).
Nell’ambito lavoristico, il divieto di utilizzare l’IA colpisce i sistemi di riconoscimento delle emozioni (salvo che per finalità mediche o di sicurezza) e quelli di profilazione, sulla base di dati biometrici, con riguardo a possibili fattori di discriminazione [art. 5, co. 1, lett. f) e g)].
Sono poi considerati ad alto rischio tutti i sistemi di IA nel campo della «occupazione, gestione dei lavoratori e accesso al lavoro autonomo», con la sola eccezione di quelli sostanzialmente innocui (ad es. perché non in grado di influenzare materialmente il risultato del processo decisionale – art. 6, co. 3). Più precisamente, sono considerati ad alto rischio i sistemi di IA utilizzati per adottare decisioni nell’ambito dei rapporti di lavoro e per monitorare e valutare le prestazioni e il comportamento dei lavoratori (management algoritmico) [art. 6, co. 2, e allegato III, par. 4, lett. b)] .
Il reg. IA, coerentemente con la propria base giuridica (art. 114, TFUE – armonizzazione delle legislazioni nazionali per l’attuazione del mercato interno ), prevede obblighi soprattutto in capo ai fornitori di sistemi di IA ad alto rischio (artt. 16 ss.). Essi devono istituire un sistema di gestione del rischio che consenta di individuare tempestivamente i possibili rischi per la salute, la sicurezza e i diritti fondamentali, e adottare le opportune contromisure, di carattere tecnico o informativo (art. 9). Inoltre, i sistemi di IA ad alto rischio devono utilizzare dati di addestramento, convalida e prova adeguati (non discriminatori, inter alia) (art. 10), essere configurati in modo da garantire una sufficiente trasparenza del funzionamento (explainable AI ) (art. 13), cosicché l’utilizzatore sia in grado di interpretare correttamente i risultati del sistema e possa servirsene in modo appropriato: tali sistemi devono essere predisposti alla sorveglianza umana (redress-by-design ) (art. 14) .
Gli obblighi del datore di lavoro, in quanto utilizzatore (deployer) del sistema di IA ad alto rischio, sono stati incrementati a seguito dell’interlocuzione tra il Parlamento europeo e il Consiglio. Il datore di lavoro deve utilizzare il sistema di IA ad alto rischio conformemente alle istruzioni ricevute dal fornitore e, in particolare, garantire la sorveglianza umana: a tal fine, è tenuto a dotarsi di personale che disponga di adeguate formazione, competenze e poteri di intervento (art. 26). Il Parlamento aveva insistito anche perché il datore di lavoro effettuasse la valutazione d’impatto del sistema di IA ad alto rischio sui diritti fondamentali , ma la versione finale prevede l’obbligo di detta valutazione per altri utilizzatori [servizi pubblici, banche, assicurazioni – art. 27, co. 1, che rinvia all’allegato III, parr. 2 e 5, lett. b) e c)], non per i datori di lavoro. E’, invece, presente uno specifico obbligo datoriale di informazione dei rappresentanti dei lavoratori e dei lavoratori interessati, prima che sia messo in servizio o utilizzato un sistema di IA ad alto rischio (art. 26, co. 7). Qui gli emendamenti del Parlamento spingevano per l’introduzione di un vero e proprio diritto di consultazione , che non è presente nella versione finale: in questo ambito, però, occorre tener conto anche degli altri strumenti giuridici dell’UE applicabili ai sistemi di IA (v. infra questo paragrafo e il par. 5).
Va, infine, ricordato il diritto dei lavoratori, soggetti a decisioni datoriali adottate sulla base dell’output di sistemi di IA ad alto rischio, di ottenere spiegazioni chiare e significative sul ruolo del sistema nella procedura decisionale e sui principali elementi della decisione adottata (art. 86, co. 1).
Le tutele che il reg. IA si appresta a garantire ai lavoratori devono essere integrate con quelle che il GDPR già oggi offre, ovviamente partendo dall’angolo visuale della tutela della privacy . In particolare, l’interessato, e quindi anche il lavoratore, vanta il diritto di non essere sottoposto a una decisione basata unicamente su un trattamento automatizzato , compresa la profilazione, che produca effetti giuridici nella sua sfera o incida in modo analogo, significativamente, sulla sua persona (art. 22, co. 1) . Va subito sottolineato come l’ambito di applicazione si estenda qui anche ai sistemi puramente deterministici, che danno sicuramente luogo a un trattamento automatizzato: un analogo cono applicativo, più ampio rispetto a quello del reg. IA, è riscontrabile anche nella direttiva sul lavoro nelle piattaforme digitali, che utilizza una definizione simile (sistemi decisionali o di monitoraggio automatizzati).
Il divieto ex art. 22, GDPR patisce tre eccezioni: quando la decisione sia necessaria per la conclusione o l’esecuzione di un contratto; quando sia autorizzata dal diritto UE o degli Stati membri, con appropriate garanzie per l’interessato; quando quest’ultimo abbia prestato il proprio consenso. Come è stato rilevato in dottrina, soprattutto la prima eccezione sarebbe in grado di relativizzare di molto il divieto , benché il Gruppo di lavoro art. 29 ne raccomandi un’interpretazione restrittiva . L’eccezione relativa al consenso, invece, non può essere valorizzata nei rapporti di lavoro, perché, come insegna sempre il Gruppo di lavoro art. 29, in detti rapporti il consenso non può di regola essere considerato liberamente espresso a causa della disparità di potere contrattuale insito nella relazione lavorativa . Una volta entrato in vigore il reg. IA, occorrerà capire se esso possa integrare la seconda eccezione (ovvero autorizzazione del diritto UE): il che porterebbe, però, a una sensibile diminuzione delle tutele complessive, risultato che appare contrario alla ratio stessa del reg. IA, in una sorta di eterogenesi dei fini.
Il lavoratore assoggettato a decisione basata unicamente su un trattamento automatizzato in forza della prima e della terza delle suddette eccezioni ha diritto almeno di richiedere l’intervento umano, di esprimere la propria opinione e di contestare la decisione (art. 22, co. 3) . Ha, inoltre, il diritto di essere informato dell’esistenza del processo decisionale automatizzato, della logica utilizzata e delle conseguenze sul rapporto di lavoro [artt. 13, co. 2, lett. f), e 14, co. 2, lett. g)], e può esercitare il diritto di accesso per ottenere le medesime informazioni [art. 15, co. 1, lett. h)] .
Si è già accennato come il reg. IA non imponga al datore di lavoro che utilizzi sistemi di IA ad alto rischio alcuna valutazione d’impatto sui diritti fondamentali, anche se quella ex art. 35, GDPR è richiamata nell’art. 26, co. 9, quando ne ricorrano i presupposti. E secondo una parte della dottrina, nella quasi totalità dei casi di impiego di sistemi di IA ad alto rischio sarebbe integrato il requisito di cui all’art. 35, co. 1, GDPR, che richiede la valutazione d’impatto sulla protezione dei dati personali, alla luce del rischio elevato per i diritti e le libertà delle persone fisiche . Si è, infatti, normalmente in presenza di «una valutazione sistematica e globale di aspetti personali […], basata su un trattamento automatizzato, compresa la profilazione, e sulla quale si fondano decisioni che hanno effetti giuridici o incidono in modo analogamente significativo su dette persone fisiche» [art. 35, co. 3, lett. a)]. E’ del medesimo avviso anche il Garante per la privacy, quanto meno per quanto riguarda i controlli tecnologici: ha, infatti, incluso nell’ambito di applicazione della disposizione de qua i «trattamenti effettuati nell’ambito del rapporto di lavoro mediante sistemi tecnologici dai quali derivi la possibilità di effettuare un controllo a distanza dell’attività dei dipendenti» .
Va ricordato che nella valutazione d’impatto vi è spazio anche per il coinvolgimento dei rappresentanti dei lavoratori, ai sensi del comma 9: tuttavia, l’ambiguità della formulazione («se del caso») ha indotto a interrogarsi sulla cogenza di tale raccolta di «opinioni degli interessati o dei loro rappresentanti» . Ad ogni modo, non si può, invece, dubitare che sussista un vero e proprio diritto dei rappresentanti dei lavoratori a essere informati e consultati sull’introduzione e modifica di sistemi algoritmici deterministici e non, compresa l’IA, in forza della direttiva quadro sull’informazione e consultazione dei lavoratori nelle imprese e stabilimenti nazionali (dir. 2002/14). Infatti, si tratta di decisioni datoriali «suscettibili di comportare cambiamenti di rilievo in materia di organizzazione del lavoro, nonché di contratti di lavoro», ai sensi dell’art. 4, co. 2, lett. c) del provvedimento europeo.
5. La proposta di direttiva sul lavoro delle piattaforme e l’accordo quadro europeo sulla digitalizzazione.
La proposta di direttiva sul lavoro nelle piattaforme è assai più densa di contenuti lavoristici rispetto agli atti normativi appena esaminati, ma ha un ambito applicativo più ristretto: si applica, infatti, soltanto ai lavoratori delle piattaforme digitali, ai quali offre una solida tutela nei confronti dell’algorithmic management. In qualche fase della gestazione del provvedimento era stato proposto di ampliarne il cono applicativo a tutte le ipotesi di algorithmic management, anche realizzate in produzioni “tradizionali” , ma il suggerimento non è stato raccolto nella versione finale. Quest’ultima, infatti, confina le tutele alle piattaforme digitali, che organizzano lavoro realizzato online o nel mondo fisico, per il tramite di «sistemi di monitoraggio o decisionali automatizzati» (art. 2). Le protezioni offerte nei confronti del management algoritmico, peraltro, non sono limitate ai lavoratori subordinati, ma spettano a prescindere dalla relazione contrattuale intercorrente con il datore di lavoro, che potrà essere, dunque, anche di lavoro autonomo .
Le tutele anzidette sono concentrate nel capo III della proposta di direttiva, e vanno a integrare il GDPR sulla scorta di quanto statuito nell’art. 88 (considerando 39 della direttiva) . Esse sono accomunate dagli stessi principi che informano il reg. IA, a conferma del medesimo approccio antropocentrico: combinano, infatti, il principio di precauzione e quello di gestione del rischio. Compare, anzitutto, il divieto di trattare determinati dati: ad es., quelli che rivelano lo stato emotivo o psicologico del lavoratore, quelli relativi a conversazioni private o rilevati durante le pause, i dati biometrici, quelli in grado di rivelare fattori di discriminazione (art. 7). Si conferma, dunque, che i trattamenti di dati realizzati da sistemi decisionali o di monitoraggio automatizzati richiedono la valutazione d’impatto ai sensi dell’art. 35, GDPR, e si impone la consultazione dei lavoratori e dei loro rappresentanti, cui deve essere consegnata anche copia della valutazione stessa (art. 8).
Il lungo art. 9 va a integrare gli obblighi di trasparenza già imposti dal reg. IA e dal GDPR stesso. Ai lavoratori delle piattaforme, ai loro rappresentanti e, su richiesta, alle competenti autorità nazionali devono essere fornite informazioni in merito all’uso dei sistemi decisionali o di monitoraggio automatizzati. L’elenco è corposo, e spiccano: le categorie di dati e azioni monitorati o valutati da tali sistemi, lo scopo e le modalità del monitoraggio; le categorie di decisioni supportate da tali sistemi, le tipologie di dati raccolti e i principali parametri che supportano la decisione; le ragioni poste a fondamento delle decisioni che restringono, sospendono o chiudono un account, rifiutano il pagamento di lavoro svolto o, comunque, hanno un impatto sulle condizioni contrattuali del lavoratore (co. 1). Le informazioni devono essere fornite in forma scritta e devono essere trasparenti e comprensibili, espresse in un linguaggio semplice (co. 2). Quanto alla tempistica, i rappresentanti dei lavoratori devono ricevere le informazioni anzidette prima dell’introduzione dei sistemi automatizzati o di ogni cambiamento che incida sulle condizioni di lavoro, sull’organizzazione del lavoro o sul monitoraggio dell’attività lavorativa (co. 4) .
Il principio della sorveglianza umana è implementato nell’art. 10, con il significativo coinvolgimento dei rappresentanti dei lavoratori. Le piattaforme devono dotarsi del personale necessario a tal fine, che abbia le competenze, la formazione e i poteri necessari anche per revocare la decisione presa dal sistema automatizzato, se del caso; il personale ora detto deve godere di protezione contro i licenziamenti (co. 2). E’ poi espressamente stabilito che ogni decisione che limiti, sospenda o ponga fine alla relazione contrattuale o all’account deve essere presa da un essere umano (co. 5). L’art. 11 della direttiva completa il principio della sorveglianza umana con il diritto del lavoratore delle piattaforme all’intervento umano: il personale di contatto è tenuto a spiegare la decisione assunta dai sistemi automatizzati in modo trasparente e comprensibile ; nel caso delle decisioni più importanti, come quelle che pongono fine alla relazione contrattuale o all’account, la comunicazione deve essere fornita tempestivamente e per iscritto (co. 1). Il lavoratore ha diritto alla rettifica delle decisioni che violano i suoi diritti o, se ciò non è possibile, al risarcimento del danno (co. 3). La piattaforma deve, in ogni caso, assumere tutti i passi necessari per correggere o bloccare il sistema automatizzato che abbia dato corso a detta violazione (redress-by-design) .
Completano il quadro delle tutele specifiche disposizioni in materia di salute e sicurezza sul lavoro: accanto all’integrazione della valutazione dei rischi, spicca anche il divieto di utilizzare sistemi decisionali o di monitoraggio automatizzati che sottopongano a pressioni eccessive i lavoratori, mettendo a rischio la loro salute fisica o mentale (art. 12, co. 3). E’ evidente la crucialità di questa disposizione nel porre un argine alle forme più sfrenate di management algoritmico adottate dalle piattaforme digitali: anche in questo caso, appare centrale il confronto con i rappresentanti dei lavoratori, pure richiamato dalla disposizione . Del resto, l’art. 13 conferma che l’introduzione o la modifica sostanziale di sistemi decisionali o di monitoraggio automatizzati da parte delle piattaforme è oggetto dei diritti di informazione e consultazione dei rappresentanti dei lavoratori di cui alla direttiva 2002/14/CE : la norma aggiunge il diritto all’assistenza da parte di un esperto, che sarà pagato dal datore quando la piattaforma abbia più di 250 lavoratori . Qualora non vi siano rappresentanti dei lavoratori, è stabilito uno specifico diritto di informazione direttamente in favore dei lavoratori delle piattaforme (art. 14).
A conclusione del quadro normativo europeo, occorre un cenno anche all’Accordo quadro delle parti sociali europee sulla digitalizzazione del 2020, che contiene una sezione sull’IA e una sui sistemi di sorveglianza . Con riferimento all’IA, si ribadisce l’approccio antropocentrico, che pone al vertice il controllo umano, la gestione dei rischi, la trasparenza e la sorveglianza umana. Quest’ultima, quando venga in considerazione la gestione dei rapporti di lavoro (dall’assunzione ai licenziamenti, passando per la valutazione della prestazione), deve consentire al lavoratore di richiedere l’intervento umano e la verifica dell’output dei sistemi di IA. Con riferimento ai sistemi di sorveglianza, le parti sociali insistono perché si evitino forme di monitoraggio intrusivo e lesivo della dignità dei lavoratori, ritenendo, tuttavia, sufficiente a tal fine l’applicazione del GDPR.
6. Principi desumibili dall’intreccio di fonti UE.
L’approccio che emerge dalle fonti europee, seppur in modo un poco caotico, è chiaramente antropocentrico: nella gestione dei rapporti di lavoro, ciò si traduce in un ricorso a sistemi di IA che non siano lesivi della dignità dei lavoratori. Le implicazioni per l’uso dell’IA a fini di algorithmic management sono piuttosto significative: i sistemi di IA devono essere trasparenti, e cioè comprensibili e spiegabili nelle dinamiche con cui assumono o assistono nell’assunzione di decisioni inerenti i lavoratori. Il datore di lavoro deve sempre garantire la sorveglianza umana, anche nella forma dell’intervento umano in grado di “sconfessare” la decisione del sistema di IA (redress-by-design). Secondo l’interpretazione preferibile, una valutazione d’impatto con il coinvolgimento dei rappresentanti dei lavoratori è sempre richiesta; del resto, nel caso delle piattaforme digitali ciò è espressamente stabilito. La spinta efficientista dell’algorithmic management deve, infine, fare i conti la disciplina europea della salute e sicurezza sul lavoro, che impedisce di adottare sistemi di IA che sottopongano i lavoratori a pressioni eccessive e dannose per la loro salute fisica o mentale: la soluzione è espressamente prospettata dalla proposta di direttiva sulle piattaforme, ma è desumibile anche dalla dir. 89/391/CEE, del resto espressamente richiamata dalla summenzionata proposta . Va, infine, rilevato che il coinvolgimento dei lavoratori, seppur nelle forme più deboli dell’informazione e consultazione, costituisce una presenza costante nel patchwork normativo che si è cercato di scandagliare, ed è comunque chiaramente desumibile anche dalla direttiva 2002/14/CE sul quadro nazionale di informazione e consultazione dei rappresentanti dei lavoratori: a mente di questo provvedimento, il confronto preventivo con i rappresentanti dei lavoratori è richiesto ogniqualvolta vi sia una decisione datoriale che impatta in modo notevole sull’organizzazione o sui contratti di lavoro.
7. Il capo V-bis, d.lgs. n. 81/2015 e l’art. 1-bis, d.lgs. n. 152/1997.
Il livello di regolazione nazionale è stato nel complesso meno valorizzato dalla dottrina, benché esso si presenti articolato e trovi una precisa collocazione sistematica negli spazi normativi lasciati aperti dall’art. 2, co. 11, reg. IA e dall’art. 88, GDPR .
Come già accennato vengono in rilievo, anzitutto, le disposizioni del capo V-bis, d.lgs. n. 81/2015, introdotto dal d.l. n. 101/2019: il suo campo di applicazione è, però, limitato ai rider e driver lavoratori autonomi, perché per quelli etero-organizzati l’art. 2, co. 1, d.lgs. n. 81/2015 stabilisce l’applicazione della disciplina del lavoro subordinato tout court . I vincoli posti all’algorithmic management sono abbastanza significativi, anche se andranno aggiornati, oltre che estesi ai lavoratori subordinati e alle piattaforme diverse da quelle di delivery, una volta che si procederà alla trasposizione della direttiva sulla tutela dei lavoratori delle piattaforme digitali.
E’ prevista la forma scritta ad probationem del contratto di lavoro, con comunicazione al lavoratore di tutte le informazioni di cui agli artt. 1 e 1-bis, d.lgs. n. 152/1997 (comprese, dunque, tutte le informazioni sul funzionamento e le finalità dei sistemi decisionali o di monitoraggio automatizzati - v. infra) (art. 47-ter). Il compenso può essere stabilito in relazione alle modalità di svolgimento della prestazione e dell’organizzazione del committente, come normalmente avviene per il lavoro delle piattaforme, soltanto se sia applicato un contratto collettivo stipulato dalle organizzazioni sindacali e datoriali comparativamente più rappresentative sul piano nazionale; in difetto, i lavoratori non possono essere retribuiti in base alle consegne effettuate e deve essere garantito loro un compenso minimo, desunto dai CCNL di settori affini o equivalenti; è previsto un supplemento fisso del 10% per il lavoro svolto in condizioni disagevoli (festività, notturno, condizioni meteorologiche avverse) (art. 47-quater).
Viene, infine, richiamata la disciplina antidiscriminatoria dei lavoratori subordinati ed è espressamente vietata l’esclusione dalla piattaforma e la riduzione delle occasioni di lavoro come conseguenza della mancata accettazione della prestazione (art. 47-quinquies). Il richiamo alle previsioni poste a tutela della dignità e libertà dei lavoratori (art. 47-quinquies), compreso l’art. 4 dello Statuto, e a quelle del GDPR, pongono seri limiti anche all’impiego indiscriminato di sistemi di monitoraggio automatizzati .
Il secondo tassello normativo del mosaico nazionale è costituito dal discusso art. 1-bis, d.lgs. n. 152/1997, introdotto dal decreto trasparenza (d.lgs. n. 104/2022) e novellato lo scorso anno dal decreto lavoro (d.l. n. 48/2023): secondo una parte della dottrina, si tratterebbe di una disposizione non necessaria ai fini della trasposizione della dir. 2019/1152, che ci porrebbe in linea di collisione con l’ordinamento europeo sotto vari profili, oltre che di un irragionevole e inutile appesantimento burocratico . Le critiche paiono ingenerose. Per un verso, l’art. 1-bis, d.lgs. n. 152/1997 anticipa la proposta di direttiva sul lavoro nelle piattaforme digitali, attingendo largamente al testo della stessa . Per altro verso, l’estensione dell’ambito di applicazione a tutti i sistemi decisionali e di monitoraggio (dopo il decreto lavoro: integralmente) automatizzati, e non soltanto a quelli utilizzati dalle piattaforme, rientra tra le opzioni che sono state sul tavolo durante la discussione della proposta di direttiva, e non costituisce certo un fulmine a ciel sereno. Per altro verso ancora, la circostanza che la direttiva trasposta dal decreto trasparenza (dir. 2019/1152) non contempli disposizioni specifiche per i sistemi automatizzati non impedisce certo ai legislatori degli Stati membri di intervenire in tale ambito, visto che la direttiva, come del resto tutte quelle in materia sociale, fa salve espressamente le disposizioni nazionali di maggior favore per i lavoratori .
L’ambito di applicazione della previsione è, dunque, particolarmente ampio: ex latere datoris, perché non limitato alle piattaforme digitali, come già accennato; ma anche ex latere laboris, perché, accanto ai lavoratori subordinati, include anche i collaboratori coordinati e continuativi e le collaborazioni etero-organizzate. Il tentativo del d.l. n. 48/2023 di restringerne il cono applicativo ai soli sistemi decisionali e di monitoraggio integralmente automatizzati non pare del tutto riuscito. Secondo una parte della dottrina, le cui argomentazioni paiono condivisibili, la nuova formulazione continuerebbe a essere compatibile con un ruolo autonomo del decisore umano, visto che i sistemi integralmente automatizzati sono deputati soltanto a «fornire indicazioni rilevanti» in merito alle decisioni da assumere, e non predisposti per assumerle essi stessi . E’ ben diversa e più tranchant la formulazione dell’art. 22, GDPR, che fa riferimento a «decisioni basate unicamente su un trattamento automatizzato» (v. retro il par. 4).
Il legislatore nazionale si affida soprattutto al principio di trasparenza: il datore e il committente sono tenuti «a informare il lavoratore dell’utilizzo di sistemi decisionali o di monitoraggio integralmente automatizzati deputati a fornire indicazioni rilevanti ai fini dell’assunzione o del conferimento dell’incarico, della gestione o della cessazione del rapporto di lavoro, dell’assegnazione di compiti o mansioni nonché indicazioni incidenti sulla sorveglianza, la valutazione, le prestazioni e l’adempimento delle obbligazioni contrattuali dei lavoratori» (art. 1-bis, co. 1).
Le informazioni che il datore (o il committente) sono tenuti a fornire sono state attinte sia dalla proposta di direttiva sul lavoro nelle piattaforme digitali, sia dalla proposta di reg. IA . Esse abbracciano: gli aspetti del rapporto di lavoro sui quali incide l’utilizzo dei sistemi automatizzati; i loro scopi e le loro finalità, nonché la loro logica e il loro funzionamento; le categorie di dati raccolti e i parametri principali utilizzati per programmarli o addestrarli, inclusi i meccanismi di valutazione delle prestazioni; le misure di controllo adottate per le decisioni automatizzate, gli eventuali processi di correzione e il responsabile del sistema di gestione della qualità; il livello di accuratezza, robustezza e cybersicurezza, nonché gli impatti potenzialmente discriminatori (art. 1-bis, co. 2). Ogni modifica incidente sulle informazioni, che possa comportare variazioni delle condizioni di svolgimento del lavoro, deve essere comunicata ai lavoratori almeno 24 ore prima (art. 1-bis, co. 5).
Il lavoratore, anche attraverso le r.s.a., r.s.u. o il sindacato territoriale, ha diritto di accedere ai dati e di richiedere ulteriori informazioni, che il datore o committente deve fornire per iscritto entro 30 giorni (art. 1-bis, co. 3) . Il co. 4 dell’art. 1-bis richiama, poi, gli obblighi datoriali di cui al GDPR: integrazione dell’informativa con le istruzioni per il lavoratore in merito alla sicurezza dei dati; aggiornamento del registro dei trattamenti, con riferimento alle attività dei menzionati sistemi, incluse quelle di sorveglianza e monitoraggio; analisi dei rischi e valutazione d’impatto, che viene così resa obbligatoria, con consultazione preventiva del Garante della privacy quando il trattamento manifesti un rischio elevato per i diritti e le libertà delle persone fisiche.
Il versante collettivo della tutela predisposta dal legislatore si concretizza nella previsione che il medesimo flusso informativo sia indirizzato anche alle r.s.u., r.s.a. o, in loro assenza, alle sedi territoriali delle organizzazioni sindacali comparativamente più rappresentative sul piano nazionale, nonché al Ministero del lavoro e all’Ispettorato nazionale del lavoro, su loro richiesta (art. 1-bis, co. 6). Una parte della dottrina ha criticato, anche alla luce dell’esperienza tedesca, questa parte della disposizione, ritenendola quella più deludente della nuova normativa: il sindacato, in altri termini, resterebbe, al momento, un semplice spettatore dell’applicazione e utilizzo dei meccanismi di IA . E’ senz’altro vero che questa parte dovrà essere aggiornata quando si procederà al recepimento della direttiva piattaforme, visto che in quella sede il coinvolgimento dei rappresentanti dei lavoratori è senza dubbio più robusto, attingendo il diritto di negoziazione .
E, tuttavia, vanno ricordati due aspetti importanti. Per un verso, l’attore sindacale si è subito impadronito dei nuovi diritti di informazione, costringendo, tramite l’azione ex art. 28 dello Statuto dei lavoratori, le piattaforme alla disclosure: qui i giudici hanno subito premiato l’attivismo sindacale , anche relativizzando la disposizione che tutela i segreti industriali e commerciali (ovvero l’art. 1-bis, co. 8) . In secondo luogo, l’art. 1-bis fa espressamente salvo l’art. 4 dello Statuto in materia di controllo a distanza dei lavoratori, e i relativi diritti codecisionali del sindacato (art. 1-bis, co. 1). Sulla crucialità di questa disposizione nel nuovo contesto dell’algorithmic management si dirà a breve.
8. Gli artt. 4 e 8 dello Statuto dei lavoratori.
Nel quadro normativo nazionale è opportuno valorizzare due norme dello Statuto dei lavoratori, che possono offrire un contributo fondamentale nella regolazione dell’utilizzo di sistemi di IA per la gestione dei rapporti di lavoro.
Anzitutto, l’art. 8, che vieta al datore di lavoro di effettuare indagini su fatti non rilevanti per l’attitudine professionale del lavoratore. Come segnalato da una parte della dottrina, la disposizione potrebbe acquisire nuova linfa se si affermasse un’interpretazione ampia del termine «indagini», in grado di coprire anche le informazioni acquisite e processate dai sistemi di IA a fini di gestione del rapporto e organizzazione del lavoro . Del resto, già in epoche ben lontane dalle suggestioni del management algoritmico una parte della dottrina aveva invitato a valorizzare adeguatamente l’art. 8 dello Statuto, come punto di emersione di un principio più generale che impedirebbe al datore di prendere in considerazione nella gestione del rapporto qualsiasi elemento irrilevante per l’espletamento della prestazione lavorativa .
Ancora più importante, e complementare alla disciplina europea e a quella nazionale già menzionata, appare il ruolo che può giocare l’art. 4 dello Statuto dei lavoratori, qualora se ne offra un’interpretazione con lo sguardo rivolto al futuro e non al passato. Una parte della dottrina ritiene che questa disposizione sia di scarsa utilità per affrontare le sfide connesse all’utilizzo dei sistemi di IA nei rapporti di lavoro . A fronte del monitoraggio pervasivo consentito dalle nuove tecnologie, i diritti di codecisione attribuiti al sindacato dal comma primo non potrebbero trovare applicazione: nei sistemi di Industria 4.0, compresi quelli di IA, la funzione di controllo è integrata negli stessi strumenti di lavoro, che, però, ai sensi del co. 2, risulterebbero esclusi dal confronto sindacale previsto nel co. 1. Quest’interpretazione non convince nemmeno nelle varianti che escludono l’applicazione del co. 1 quando lo strumento di lavoro, che integra anche la funzione di controllo, sia indispensabile per lo svolgimento della prestazione, o anche semplicemente utile . Sono tutte interpretazioni che conducono all’esito paradossale di confinare l’applicazione del primo comma ai residui della old economy, come le telecamere, mentre il monitoraggio capillare della prestazione lavorativa consentito dai sistemi di IA utilizzati da Industria 4.0, ove il controllo è immanente allo stesso strumento di lavoro, ne resterebbe elegantemente, e del tutto legittimamente, escluso.
In un altro contributo si è offerta un’interpretazione restrittiva del discusso secondo comma dell’art. 4 dello Statuto dei lavoratori , che si intende riproporre anche in questa sede. Rimarrebbero assoggettati alla procedura di cui all’art. 4, co. 1 gli strumenti di lavoro utilizzati per la prestazione che travalicano i limiti dell’adempimento individuale e soddisfano più ampie esigenze di carattere organizzativo e produttivo. In altri termini, fermo restando che lo strumento deve essere funzionale all’attività lavorativa del singolo, il discrimen non passa tanto per i criteri dell’indispensabilità o della semplice utilità ai fini del comportamento solutorio, alternativamente proposti in dottrina, bensì attraverso la proiezione superindividuale del dispositivo di lavoro, che diventa un vero e proprio elemento dell’ingranaggio aziendale. E così, ad esempio, non il singolo computer al di fuori della intranet aziendale, quanto piuttosto l’applicativo che consente al rider o al magazziniere di Amazon di svolgere la propria prestazione, di fatto soggetto continuativamente al controllo, alla direzione e alla valutazione da parte dell’applicativo stesso (wearable device).
Nella ricostruzione che qui si ripropone la procedura sindacale mantiene, dunque, un ruolo importantissimo, addirittura crescente con la digitalizzazione dei processi produttivi e la diffusione delle pratiche di algorithmic management. Viene, così, adeguatamente valorizzato uno dei rarissimi esempi di diritti di “codecisione” esistente nel nostro ordinamento , proprio nel momento in cui all’orizzonte si stagliano forme ancora più pericolose di sorveglianza, come quelle veicolate dai sistemi di IA.
9. The way ahead: dal controllo alla cogestione.
Nel sistema di regolazione multilivello dell’utilizzo dell’IA nella gestione dei rapporti di lavoro, l’art. 4 completa sul versante collettivo la disciplina del reg. IA e della proposta di direttiva sul lavoro nelle piattaforme digitali: a fronte dei meri diritti di informazione e consultazione desumibili dal quadro europeo, si staglia un robusto diritto di codecisione, che allinea il sistema italiano a quelli più avanzati, come la Germania . E’ altresì interessante osservare come attraverso l’art. 4, che si applica al monitoraggio sistematico insito nel management algoritmico, i rappresentanti dei lavoratori ottengano voce in capitolo anche sugli altri aspetti dei sistemi di IA, che invece attengono più propriamente all’esercizio del potere direttivo. Pertanto, la stretta relazione che si instaura nei sistemi di management algoritmico tra il potere direttivo e quello di controllo consente in ultima analisi ai rappresentanti dei lavoratori di negoziare le coordinate essenziali di funzionamento dei sistemi di IA.
Il sindacato è chiamato, dunque, ad abbandonare il ruolo di semplice controllore delle modalità con le quali viene attuato il monitoraggio a distanza dei lavoratori per diventare un cogestore dell’innovazione organizzativa realizzata tramite i sistemi di IA . Ciò presuppone un salto di qualità anche da parte del sindacato, poiché la mera trasparenza relativa a fenomeni tanto complessi rischia di essere un’arma spuntata se chi riceve le informazioni non è in grado di comprenderle . E, tuttavia, questa sfida può essere vinta se si punta con convinzione sulla formazione dei rappresentanti dei lavoratori, come avviene in altri ordinamenti, quali, ad es., quello tedesco .