testo integrale con note e bibliografia
1. I rischi e le opportunità dell’utilizzo dell’IA nel rapporto di lavoro: cenni introduttivi
L’impatto della trasformazione tecnologica e digitale sulla gestione delle risorse umane cresce a ritmi esponenziali. L’irruzione dell’Intelligenza Artificiale (IA) pone questioni rilevanti dal punto di vista della regolazione lavoristica che vanno affrontate nell’ottica di soppesare rischi e opportunità al fine di individuare le modalità più opportune per assicurare la tutela dei lavoratori nei nuovi scenari, in coerenza con l’ispirazione protettiva del diritto del lavoro. Si utilizza in questa sede il riferimento all’IA in modo atecnico e riassuntivo di quella pluralità di sistemi in realtà molto diversi tra loro – reti neurali, intelligenza artificiale, apprendimento automatico (machine learning) , apprendimento profondo (deep learning) - accumunati dall’essere macchine che imitano l’intelligenza umana. La definizione dei sistemi di IA accolta dal Regolamento europeo sull’intelligenza artificiale (di seguito anche AI Act) è limitata ai sistemi sviluppati mediante approcci di apprendimento automatico e approcci basati sulla logica e sulla conoscenza . Viceversa esulano dalla nozione di IA accolta a livello europeo i sistemi che “utilizzano regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico” (par. 6 dei considerando).
I principali rischi connessi all’IA che vengono segnalati nell’ottica giuslavoristica, al netto della discussione sui possibili effetti collaterali in termini di distruzione di posizioni lavorative e sostituzione del lavoro umano, riguardano principalmente l’accentuazione della debolezza contrattuale; le possibili nuove forme di discriminazione (si parla di discriminazioni algoritmiche , bias tecnologici e discriminazioni storiche ); la “disumanizzazione” della gestione delle relazioni di lavoro e la spersonalizzazione dell’esercizio dei poteri datoriali; i rischi di opacità delle scelte organizzative e datoriali.
E’ vero, d’altra parte, che sono anche molte le opportunità per i lavoratori e le lavoratrici che possono sprigionarsi grazie all’impiego delle nuove tecnologie, ove adeguatamente gestite e controllate. Si pensi, ad esempio, ai guadagni di efficienza, inclusività e pari opportunità che possono derivare dalla digitalizzazione del mercato del lavoro sul piano dell’incontro tra domanda e offerta, ma anche nell’ottica della personalizzazione della formazione professionale, delle politiche attive, dei servizi per il lavoro e dello sviluppo del capitale professionale o anche sul piano della salute e sicurezza sul lavoro. Più in generale la digitalizzazione può accrescere le opportunità di partecipazione al mercato del lavoro e l’efficienza e standardizzazione/prevedibilità dei processi decisionali, riducendone il tasso di discrezionalità soggettiva.
L’IA potenzialmente può pervadere tutte le fasi di gestione delle relazioni di lavoro, dalla fase pre-assuntiva, a quella di instaurazione e di gestione del rapporto di lavoro, fino alla fase della cessazione del rapporto. Nel presente scritto si concentrerà l’attenzione essenzialmente sull’impiego dell’IA nel rapporto di lavoro, anziché nel mercato del lavoro, focalizzando l’analisi intorno al tema dell’impatto dell’IA sui poteri datoriali e sulle posizioni giuridiche soggettive nella relazione contrattuale.
2. L’impatto espansivo dell’IA sui poteri e sulle prerogative datoriali e la mistificazione linguistica del “potere algoritmico”
Non v’è dubbio che l’adozione dell’IA nell’ambito dei rapporti di lavoro rientra nella sfera di discrezionalità dell’agire imprenditoriale e costituisce espressione della libertà economica nelle scelte di conduzione e di assetto dell’impresa nonché di gestione del personale. Tali scelte sono ascrivibili all’esercizio delle libertà economiche e al ruolo gerarchico dell’imprenditore rispetto ai suoi collaboratori (art. 41 cost.; artt. 2086 e 2014 c.c.). D’altro canto su piano generale l’utilizzo dell’IA nell’ambito dei rapporti di lavoro è legittimo e compatibile con la disciplina euro unitaria, atteso che il Regolamento europeo sull’intelligenza artificiale recentemente approvato considera leciti tali sistemi di IA, ancorchè classificandoli “ad alto rischio” (cfr. art. 6, par. 3, e allegato III, par. 4).
Per le sue caratteristiche intrinseche l’utilizzo della IA nei rapporti di lavoro è suscettibile di accrescere, ancorché in modo mimetico e non sempre evidente , l’intensità e la rapidità dell’esercizio dei tipici poteri del datore di lavoro e del committente (artt. 2094, 2104, 2106, 2103, 2022 c.c.; art. 403 c.p.c., art. 2, d. lgs. n. 81/2015) e più in generale le prerogative manageriali e organizzative del capo dell’impresa. Da questo punto di vista sembra corretto parlare di una spinta all’accentuazione - piuttosto che all’affievolimento - della subordinazione giuridica, intesa come soggezione al potere unilaterale del datore di lavoro (soggezione che, pur non configurando subordinazione, tocca anche i collaboratori autonomi nel lavoro tramite piattaforma come effetto dell’esercizio del potere imprenditoriale) - indotta dall’utilizzo dell’IA nella gestione dei rapporti di lavoro . Infatti l’impiego di sistemi di IA per la gestione del personale accresce l’“alienità dell’organizzazione produttiva in cui la prestazione si inserisce” in quanto l’organizzazione algoritmica sfugge di norma al potere di controllo del lavoratore.
Si segnala inoltre un’accentuazione dell’asimmetria informativa che connota da sempre il rapporto tra prestatore di lavoro e datore di lavoro connessa alla ridotta intellegibilità delle scelte datoriali assunte attraverso l’IA e alla difficoltà di accesso a dati e informazioni ad esse sottostanti. Un’asimmetria che, proprio al cospetto del mezzo tecnologico, della enorme potenza di calcolo e della scarsa intellegibilità del ragionamento algoritmico, si amplifica e cresce esponenzialmente, tanto più nei sistemi di calcolo non deterministici , al punto da diventare una delle questioni cruciali del diritto del lavoro nell’era della IA. Va pure detto che questo aspetto della questione, a dire il vero, tende ad essere spesso troppo enfatizzato: le scelte organizzative assunte dalle persone della linea gerarchica imprenditoriale non offrono garanzie di oggettività, intellegibilità e prevedibilità maggiori di quelle fornite da decisioni assunte con l’ausilio della tecnologia. Anzi quest’ultima può forse garantire soluzioni più imparziali, non influenzate da valutazioni personali, soggettive o relazionali che spesso invece condizionano la gestione delle relazioni di lavoro nei contesti lavorativi.
E’ anche vero che l’utilizzo dell’IA attiene a libertà, poteri, prerogative che connotano tipicamente la posizione giuridica del datore di lavoro e del committente nel contratto di lavoro e, in quanto tali, implicano una buona dose di discrezionalità valutativa e non possono essere annullati o compressi oltremisura ma devono piuttosto trovare un giusto bilanciamento con le istanze di protezione dei diritti delle persone che lavorano . Un bilanciamento che rientra nel DNA del diritto del lavoro e che l’ordinamento giuridico vigente già realizza attraverso norme di legge e contratto collettivo che verranno nel prosieguo esaminate.
E’ questa la principale sfida che deve affrontare oggi il diritto del lavoro: ricercare nuovi punti di equilibrio e definire adeguati controlimiti alla tensione espansiva dei poteri datoriali connessi all’impiego di nuove tecnologie e specialmente dell’IA. Un compito, questo, che spetta al legislatore ma anche agli interpreti e all’autonomia collettiva.
Bisogna però non perdere di vista il fatto che l’IA incide sui poteri datoriali ma non ne determina una mutazione genetica . Si configura pur sempre come uno strumento di cui si avvale il datore di lavoro per esercitare i poteri che gli competono per legge e per contratto: il potere gerarchico, direttivo, organizzativo, di controllo e disciplinare, la cui titolarità rimane salda in capo al datore di lavoro anche quando vengono esercitati con il medium dell’IA. Si vuole dire, cioè, che l’inserimento dell’IA all’interno della funzionalità del contratto di lavoro non altera la titolarità e la conseguente responsabilità del datore nell’esercizio dei poteri che gli competono, ancorché le forme di esercizio di tali poteri assumano caratteristiche inedite. L’IA non incide strutturalmente sull’assetto delle posizioni giuridiche attive e passive delle relazioni di potere, né sulla struttura della relazione giuridica lavorativa, che rimane una relazione binaria, tra il datore di lavoro e il prestatore di lavoro. I vecchi arnesi della subordinazione contrattuale e del divieto di somministrazione irregolare e fraudolenta consentono di ritrovare il bandolo della corretta imputazione dei rapporti di lavoro e delle responsabilità anche nella matassa delle relazioni mediate dalla tecnologia.
Infatti, seppure l’esercizio del potere appaia integralmente automatizzato e rimesso ad un calcolo algoritmico, al punto che nel linguaggio comune si usa parlare di “decisione algoritmica”, in realtà tale decisione è pur sempre imputabile al datore di lavoro, ovvero all’atto decisionale con il quale espressamente o per fatti concludenti quest’ultimo ha adottato la decisione di appropriarsi dell’esito di una elaborazione algoritmica, collegandovi più o meno automaticamente alcuni effetti giuridici di rilievo lavoristico (la selezione del personale, la distribuzione dei carichi di lavoro, la promozione, l’attribuzione di incentivi, l’affidamento o la revoca di compiti, ecc.).
In altre parole la “decisione” algoritmica è una mistificazione linguistica in quanto l’IA non è dotata giuridicamente di un potere proprio e quindi non ha di per sé la capacità di incidere sulle relazione contrattuale o produrre autonomamente effetti giuridici nella sfera del lavoratore, mentre perché ciò avvenga è necessaria sempre la mediazione dell’atto datoriale da cui promana la decisione di esercitare i propri poteri e le proprie prerogative attraverso l’IA, cioè incorporandone più o meno criticamente gli esiti nel proprio atto datoriale/gestionale, senza possibilità di abdicazione di tale potere all’output algoritmico. Quest’ultimo infatti deve essere necessariamente seguito dall’adozione dell’atto decisionale datoriale per esplicare un qualche effetto concreto di rilievo giuridico nel rapporto di lavoro; atto decisionale di cui in ultima analisi il datore assume la piena titolarità e responsabilità. In proposito la responsabilità datoriale che abbia affidato al sistema automatizzato basato sulla IA l’esercizio di un suo potere permarrebbe comunque in via diretta Il quadro legislativo allo stato attuale non consente, cioè, se non in modo descrittivo e atecnico, di configurare la macchina intelligente come un procurator o delegato del datore , cosa che peraltro a tutto concedere non esenterebbe comunque il datore dalla responsabilità che a lui risalirebbe in base all’art. 2049 c.c. e sotto forma di culpa in eligendo e culpa in vigilando.
Quanto appena affermato, a ben vedere, rimarrebbe fermo anche nell’ipotesi eventuale di un avveniristico riconoscimento di soggettività giuridica alla macchina intelligente di cui si discute a livello europeo e in dottrina , poiché anche qualora ciò avvenisse, il riconoscimento servirebbe non certo a sgravare di responsabilità il soggetto giuridico a cui è riconducibile la macchina intelligente, ma unicamente ai fini della perimetrazione della responsabilità civile verso terzi (con funzione quindi additiva e non sottrattiva degli obblighi gravanti sul datore/committente) ovvero ai fini della determinazione di una obbligazione contributiva previdenziale aggiuntiva, il cui onere comunque ricadrebbe sul soggetto giuridico o sulla persona fisica cui è riconducibile/associabile il dispositivo intelligente.
Alla luce delle osservazioni svolte si comprende perché l’espressione “potere algoritmico” risulti mistificante, dal momento che accredita l’idea, fallace, di una macchina antropomorfa, dotata di una propria intelligenza/volontà giuridicamente rilevante, capace di inserirsi (o interporsi) tra il datore di lavoro e il lavoratore. La mistificazione dell’antropomorfismo dell’IA rischia di far cadere nell’errore logico e giuridico di una supposta reificazione dei processi decisionali aziendali, con il portato che ne consegue in termini di spersonalizzazione della relazione giuridica e di offuscamento dei criteri di imputazione delle responsabilità .
Una delle questioni centrali dell’impiego dell’IA nel rapporto di lavoro è certamente quella del rischio di “disumanizzazione” della relazione giuridica, si tratta di una questione più che fondata e che chiama in causa il tema dell’antropocentrismo come principio valoriale che deve innervare alla base tutti i sistemi di IA (cfr. infra § 6). Un principio che, però, deve essere affrontato proprio partendo da un corretto inquadramento delle posizioni giuridiche delle parti implicate, dove l’IA si pone non come parte della relazione giuridica, ma appunto come mezzo dei poteri datoriali. Come a dire che sul fronte dei rapporti di lavoro per discutere di antropocentrismo occorre prendere le distanze dal tema dell’antropomorfismo dell’IA.
3. Le tecniche tradizionali di limitazione dei poteri datoriali alla prova dell’IA
Ricondotta la questione delle sfide poste dall’IA sul piano tradizionale dell’esigenza di controllo e contenimento dei tipici poteri datoriali, va detto che in realtà il diritto del lavoro interno sembra già dotato di tutti gli strumenti per affrontare adeguatamente queste sfide, dal punto di vista dei principi, delle regole e delle tecniche normative.
Più in particolare il diritto vigente non è impreparato ad evitare abusi e a bilanciare in modo equilibrato gli interessi delle parti interessate facendo affidamento sui criteri noti che pongono limiti all’esercizio dei poteri datoriali. Basti pensare al divieto di discriminazione diretta e indiretta , alla figura dell’abuso del potere, ai principi di buona fede e correttezza contrattuale, alle norme poste a presidio della persona, della dignità, della personalità morale, della salute e sicurezza, della professionalità, della riservatezza e protezione dei dati personali. Si tratta di norme che innervano il nostro diritto del lavoro e che hanno una portata certamente idonea ad essere declinata anche in contesti innovativi per fronteggiare i rischi insiti nell’adozione delle nuove tecnologie, ponendo argini ad abusi e prevaricazioni e imponendo ai datori di lavoro di adottare, anche in via precauzionale, le cautele necessarie al loro rispetto.
Proprio lavorando su questi principi e sulle regole già esistenti mediante una interpretazione evolutiva e con i necessari adattamenti ai nuovi scenari, in conformità ai principi euro unitari di recente affermazione, è possibile declinare de iure condito uno statuto protettivo del lavoratore nell’era dell’IA (sul punto si tornerà più diffusamente nei successivi § 5 e 6).
Anche sul piano delle tecniche tradizionali di controllo dei poteri datoriali il diritto del lavoro può fare leva su meccanismi più che collaudati, di fonte legale e contrattuale collettiva. Si pensi alle tecniche di procedimentalizzazione dei poteri datoriali a livello sindacale (mediante i diritti di informazione, consultazione, negoziazione e l’ampia gamma dei diritti di partecipazione). Ma si pensi anche alle disposizioni che vincolano l’esercizio dei poteri ad obblighi di motivazione o giustificazione delle scelte datoriali (ad esempio nell’esercizio del potere di trasferimento, di distacco, di licenziamento); per arrivare ai sempre più centrali doveri di trasparenza e informazione individuale (forma scritta, informazione relativa alle caratteristiche del contratto di lavoro e alle condizioni di trattamento applicabili).
Certamente le sollecitazioni poste dall’utilizzo dell’IA nell’ambito dei rapporti di lavoro richiedono uno sforzo di sviluppo e adattamento della “cassetta degli attrezzi” per fronteggiare le grandi questioni emergenti che toccano alcuni gangli fondamentali della protezione della persona umana che lavora. Ma forse prima ancora di discutere della adeguatezza delle norme e dell’esigenza del loro aggiornamento conviene focalizzare l’attenzione proprio su questi grandi temi che sono sullo sfondo e dovrebbero indirizzare la regolazione e l’interpretazione.
4. Le tre grandi questioni assiologiche poste dalla IA nel rapporto di lavoro: identità, autodeterminazione, soggezione
Probabilmente è possibile condensare i numerosi interrogativi che lo sviluppo tumultuoso della tecnologia e dell’IA pone al giurista del lavoro in tre grandi questioni assiologico -valoriali che possiamo considerare fondamentali o fondative, in quanto toccano da vicino la sfera della persona, della libertà e della dignità.
La prima questione attiene alla protezione della identità delle persone che lavorano che rischiano di essere scomposte in un insieme di dati e informazioni per essere immesse e trattate come dati di input di sistemi algoritmici, perdendo così il loro legame essenziale con la persona umana. Le identità personali e professionali, filtrate dall’IA, rischiano di tramutarsi in identità digitali frattali, dove alla corporeità e all’unicità dell’individuo si possono giustapporre identità virtuali e digitali frammentate, di cui l’interessato può anche non avere piena padronanza e consapevolezza.
La seconda questione attiene al diritto del singolo alla conservazione della propria autonomia e autodeterminazione nei confronti della macchina intelligente. La complessità del ragionamento algoritmico e il suo utilizzo performativo dei poteri datoriali può accrescere quella situazione di alienità (rispetto ai mezzi di produzione e all’organizzazione produttiva) ed eterodirezione che già caratterizza la subordinazione, riducendo gli spazi di autodeterminazione del lavoratore e comprimendo quel margine di autonomia di giudizio e di azione che può apparire tanto più odioso, quanto più si presenta meccanicisticamente imposto da un sistema tecnologico, anziché dal comando umano. Ciò peraltro, come già osservato, può avere anche delle implicazioni positive nella misura in cui mette al riparo i lavoratori da quei comportamenti vessatori, mobbizzanti o arbitrari su base personale che nelle relazioni umane possono essere indotti da fattori soggettivi e irrazionali.
La terza questione riguarda la situazione di “soggezione” dell’uomo alla tecnologia che può scaturire da un utilizzo non controllato e adeguatamente sorvegliato della IA. La soggezione è un concetto che va oltre quello tecnico-giuridico della “subordinazione” e dell’alienità, attiene piuttosto alla vulnerabilità che scaturisce dal rapporto uomo-macchina, quando si delinea una prevaricazione o soverchiamento della razionalità tecnica rispetto al raziocinio umano. Sta ad indicare quella situazione di assoggettamento, di vera e propria sottoposizione acritica al volere razionale dell’IA, che può soggiogare costrittivamente non soltanto il lavoratore subordinato, ma anche il collaboratore autonomo e perfino lo stesso datore di lavoro.
Se queste sono le grandi questioni etiche e filosofiche che si stagliano all’orizzonte, è anche vero che simili processi vanno governati e dominati attraverso le norme giuridiche, che anche a costo di accenti retorici , hanno la responsabilità di dare forma ad una cultura giuridica dell’era digitale e devono essere plasmate incorporando costantemente i valori etici nello sviluppo del progresso tecnologico, nel segno dell’umanesimo digitale e dell’algoretica .
5. La questione regolativa della IA nel rapporto di lavoro de iure condito e de iure condendo: la normativa nazionale e i rischi della iper regolazione.
Si è già detto come la questione regolativa dell’IA nel rapporto di lavoro possa contare su una serie di norme e di principi già consolidati che vanno adattati alle nuove esigenze di tutela dei prestatori di lavoro. Nel frattempo il legislatore si è attivato con previsioni che appaiono poco coordinate tra loro e rischiano di determinare più criticità di quante non ne risolvano. In questa fase delicata di approccio ad una materia oggettivamente nuova, oltretutto attraversata da fonti normative multilivello, appare prioritario evitare il sovraccarico normativo e piuttosto optare per la definizione chiara di norme di principio e di sostegno, semmai, alla procedimentalizzazione per via sindacale dei poteri datoriali.
In materia si è avuta invece l’introduzione nel nostro ordinamento di norme ad hoc che hanno disciplinato alcuni aspetti dell’impiego dell’IA nel rapporto di lavoro. Ciò è avvenuto in alcuni casi anticipando atti regolativi europei non ancora approvati definitivamente , come il Regolamento europeo sulla IA e la direttiva sul lavoro tramite piattaforma, oppure sfruttando l’occasione dell’attuazione di direttive europee a scopo più ampio, come la direttiva sulle condizioni di lavoro trasparenti e prevedibili . Ne viene fuori a livello nazionale un quadro composito, alquanto frammentato e certamente non organico, generato con una certa precipitosità dal legislatore anche giocando d’anticipo rispetto a provvedimenti in fase di elaborazione a livello europeo, che rischia di creare duplicazioni di norme di difficile coordinamento o, al contrario, lasciare spazi non regolati.
I principali nuclei normativi in tema sono rappresentanti dalle norme: a) del Regolamento (UE) 2016/679 (GDPR) in materia di protezione dei dati personali nel caso di processi decisionali automatizzati (artt. 22, 13, 14 15); b) del D. Lgs. n. 152/1997 modificato dal D. Lgs. 104/2022 (Decreto Trasparenza) in materia di obblighi informativi nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati (art. 1 bis); c) del D. Lgs. n. 81/2015 (art. 47 bis e ss.) in materia di tutela del lavoro tramite piattaforme digitali (rider) ed infine d) dello Statuto dei lavoratori (art. 4) in materia di impianti audiovisivi e altri strumenti di controllo (controlli tecnologici).
Guardando al campo di applicazione soggettivo le normative appena richiamate danno origine ad un quadro a geometrie variabili. Le disposizioni del GDPR hanno per destinatari i cittadini in generale e apprestano una tutela per gli interessati a fronte di qualsiasi trattamento di dati, anche al di fuori del rapporto di lavoro. Le norme del Decreto Trasparenza trovano applicazione ai lavoratori subordinati, ma anche collaborazioni di cui all’articolo 409, n. 3, del c.p.c. e a quelle etero organizzate di cui all’art. 2, comma 1, D. Lgs. 81/2015. Le norme sul lavoro dei rider tramite piattaforma hanno un campo di applicazione limitato ai lavoratori autonomi che svolgono attività di consegna di beni per conto altrui, in ambito urbano e con l’ausilio di velocipedi o veicoli a motore attraverso piattaforme anche digitali. L’art. 4 dello Statuto dei lavoratori si applica soltanto al lavoro subordinato.
Lo stesso concetto di sistema automatizzato varia nei diversi contesti regolativi e comunque non è mai definito esattamente dal legislatore .
Il GDPR si riferisce a sistemi di profilazione e decisionali automatizzati che sottopongono l’interessato “a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona” (cfr. art. 22, ma anche gli artt. 13, 14 e 15).
Il Decreto Trasparenza si riferisce a “sistemi decisionali o di monitoraggio integralmente automatizzati deputati a fornire indicazioni rilevanti ai fini della assunzione o del conferimento dell'incarico, della gestione o della cessazione del rapporto di lavoro, dell'assegnazione di compiti o mansioni nonché indicazioni incidenti sulla sorveglianza, la valutazione, le prestazioni e l'adempimento delle obbligazioni contrattuali dei lavoratori” (art. 1 bis, comma 1, come modificato dal D.L. 4 maggio 2023, n. 48 convertito dalla L. 3 luglio 2023, n. 85).
La normativa sul lavoro tramite piattaforma dei rider definisce le piattaforme digitali “i programmi e le procedure informatiche utilizzati dal committente che, indipendentemente dal luogo di stabilimento, sono strumentali alle attività di consegna di beni, fissandone il compenso e determinando le modalità di esecuzione della prestazione” (art. 47 bis, comma 2).
L’art. 4 dello Statuto dei lavoratori si concentra sui sistemi di controllo, trattando dei controlli effettuati mediante “impianti audiovisivi” e “altri strumenti dai quali derivi anche la possibilità di controllo a distanza dell'attività dei lavoratori” (comma 1), esclusi però gli “strumenti utilizzati dal lavoratore per rendere la prestazione lavorativa e agli strumenti di registrazione degli accessi e delle presenze” (comma 2).
A dire il vero i “sistemi automatizzati” richiamati dal nostro legislatore non necessariamente coincidono con sistemi di IA, in quanto possono consistere in semplici sistemi informatici avanzati che “utilizzano regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico”, senza spingersi sul terreno più complesso dei sistemi di intelligenza artificiale che invece implicano “elementi di autonomia” e si avvalgono di “approcci di apprendimento automatico e/o basati sulla logica e sulla conoscenza” (cfr. retro § 1). Il che significa che ai sistemi automatizzati che non si qualificano come IA, trova applicazione la normativa italiana ma non quella europea sull’intelligenza artificiale.
Guardando all’insieme delle norme nazionali appena richiamate, pur nella diversità dei contenuti regolativi e tralasciando l’esame di dettaglio , è possibile individuare alcune disposizioni ricorrenti sulle quali il legislatore ha posto l’attenzione, in una logica protettiva del lavoratore a fronte dell’impiego di sistemi per mezzo dei quali sono esercitati i poteri datoriali decisionali, organizzativi, gestionali e di monitoraggio.
Queste disposizioni ricorrenti fanno certamente perno, oltre che sull’apparato normativo della protezione dei dati personali , principalmente sull’obbligo di informazione da parte del datore/committente/titolare che radica legislativamente uno speciale diritto del lavoratore alla trasparenza algoritmica.
L’obbligo di informazione riguarda sia l’an che il quomodo dei sistemi intelligenti impiegati. Cioè tanto la circostanza in sè dell’utilizzo del sistema automatizzato, quanto le modalità con cui questo opera e/o produce effetti sulla posizione individuale. Per come è congegnato si presenta essenzialmente come un obbligo di trasparenza ex ante, che precede temporalmente l’utilizzo del sistema e lo accompagna nel corso del tempo nel caso di modifiche apportate.
A tale riguardo si possono ricordare gli obblighi di informazione preventiva previsti dal GDPR (artt. 22 commi 1 e 4, art. 13, comma 2, lett. f), art. 14, comma 3, lett. g) riguardo l’esistenza del processo decisionale automatizzato che implicano il rilascio di “informazioni significative sulla logica utilizzata, nonché l'importanza e le conseguenze previste di tale trattamento per l’interessato”. L’informazione in esame deve essere intellegibile per il destinatario, cioè non deve richiedere “una spiegazione complessa degli algoritmi utilizzati o la divulgazione dell’algoritmo completo” (cfr. Linee guida WP 251).
Nel Decreto Trasparenza gli obblighi di informazione sono previsti dall’art. 1bis, comma 2, D. Lgs. 152/1997 “prima dell’inizio dell’attività lavorativa” e comunque in corso di rapporto almeno 24 ore prima di ogni eventuale modifica incidente sulle informazioni in precedenza fornite (comma 5). Tali informazioni riguardano: “a) gli aspetti del rapporto di lavoro sui quali incide l'utilizzo dei sistemi di cui al comma 1; b) gli scopi e le finalità dei sistemi di cui al comma 1; c) la logica ed il funzionamento dei sistemi di cui al comma 1; d) le categorie di dati e i parametri principali utilizzati per programmare o addestrare i sistemi di cui al comma 1, inclusi i meccanismi di valutazione delle prestazioni; e) le misure di controllo adottate per le decisioni automatizzate, gli eventuali processi di correzione e il responsabile del sistema di gestione della qualità; f) il livello di accuratezza, robustezza e cybersicurezza dei sistemi di cui al comma 1 e le metriche utilizzate per misurare tali parametri, nonché gli impatti potenzialmente discriminatori delle metriche stesse”. Anche qui conta l’intellegibilità dell’informazione, infatti l’obbligo di informazione è adempiuto mediante la fornitura di informazioni “in modo trasparente, in formato strutturato, di uso comune e leggibile da dispositivo automatico” (comma 6).
L’art. 1bis (commi 2 e 5) pone quindi una sorta di diritto di informazione preventiva iterativa, al quale comunque si aggiungono ulteriori obblighi di trasparenza: il diritto di accesso e di integrazione informativa anche a favore di rsa e oo.ss. territoriali (comma 3) e il diritto all’informativa sulle misure di gestione del sistema in termini di cybersicurezza e trattamento dati (comma 4).
Analoghi diritti di informazione si applicano ai rider per effetto dell’art. 47 ter, comma 1, D. Lgs. n. 81/2015 che rinvia all’art. 1 bis, D. Lgs. n. 152/1997.
Si deve infine ricordare che l’art. 4, comma 3, Statuto dei lavoratori condiziona l’utilizzabilità (ma non la raccolta) dei dati alla preventiva “adeguata informazione delle modalità d’uso degli strumenti e di effettuazione dei controlli”. Anche qui il concetto di adeguatezza sotto intende sia l’esaustività dell’informazione, sia la sua comprensibilità da parte dell’interessato.
Le norme nazionali in commento dovranno ora fare i conti con due innovazioni regolative a livello europeo di grande impatto. In primo luogo il Regolamento europeo, anche detto AI Act, proposto dalla Commissione europea nell’aprile del 2021 e approdato ad un testo condiviso dal Consiglio e dal Parlamento europeo il 9 dicembre 2023 . In secondo luogo la proposta di direttiva del Parlamento europeo e del Consiglio relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali (COM/2021/762 final) .
Si pone dunque, nel cono di sovrapposizione dei sistemi automatizzati già regolati dalla normativa nazionale e dei sistemi di IA disciplinati a livello europeo, un problema di coordinamento delle norme interne con quelle sovranazionali. Queste ultime peraltro sono in parte di diritto primario e quindi self executing ed in parte dovranno essere immesse nell’ordinamento nazionale con norme di recepimento della direttiva sul lavoro tramite piattaforma.
Il rischio è quello di una deriva iper regolativa dell’IA che non necessariamente si traduce in un tasso più elevato di tutele per i lavoratori e che certamente non facilita il compito di chi è chiamato a mettere in atto le nuove norme al cospetto di una realtà indubbiamente molto complicata da governare. Probabilmente un maggior attendismo del legislatore italiano rispetto alle emanande regole europee avrebbe giovato a delineare un quadro di regole e principi più organico all’interno dei quali declinare, ove necessario, discipline settoriali o di dettaglio.
Inoltre il rilievo epocale e la pervasività trasversale dei fenomeni da regolare avrebbe forse consigliato di optare per una regolazione per principi di ampio respiro, capace di imprimere uno sviluppo ordinamentale complessivo di adattamento delle regole vigenti alle novità imposte dallo sviluppo tecnologico. Sarebbe forse consigliabile ragionare su una norma generale (che ponga rimedio alla frammentazione attuale) rivolta non soltanto ai datori di lavoro, ma prima ancora - sulla scorta di quanto previsto dall’AI Act europeo - ai produttori dei sistemi automatizzati applicabili in ambito lavoristico e di chi li commercializza (analogamente a quanto avviene per la salute e sicurezza sul lavoro), eventualmente prevedendo sistemi ad hoc di certificazione all’origine di conformità alle normative lavoristiche. Una norma siffatta dovrebbe essere essenzialmente quella di informare/formare il lavoratore e le organizzazioni sindacali in modo chiaro e semplificato relativamente alle modalità (non tanto di funzionamento dell’algoritmo quanto) di svolgimento della prestazione lavorativa mediante l’utilizzo di sistemi di IA e relativamente alle potenzialità di controllo che derivano dall’impiego di questi sistemi. Dovrebbe inoltre porsi una norma a valenza generale che impedisca una gestione completamente spersonalizzata del lavoro ovvero che obblighi il datore ad adottare adeguate precauzioni e bilanciamenti ove ciò dovesse/potesse verificarsi.
Pur in mancanza di una simile regolamentazione, non significa che non siano già ricavabili, allo stato attuale in via interpretativa, alcuni principi regolativi a valenza generale dell’IA, essenzialmente come portato delle fonti europee che stanno progressivamente prendendo forma, come meglio si dirà nel successivo § 6.
5.1. Il diritto di informazione sulle logiche di funzionamento dell’algoritmo: intellegibilità dell’algoritmo o dei suoi effetti?
Si è già detto come la normativa italiana in materia di IA sia particolarmente attenta alla questione dell’informazione intellegibile a favore del lavoratore. La norma chiave che viene in rilievo in proposito è l’art. 1 bis del D. Lgs. n. 152/1997 . Questa disposizione concentra il dovere di informazione sulle modalità di funzionamento dell’algoritmo e sulla struttura architetturale dei sistemi di IA (o, meglio, dei sistemi decisionali e di monitoraggio automatizzati). Tanto è vero che il lavoratore deve essere informato dal datore/committente circa gli scopi e le finalità, la logica ed il funzionamento, le categorie di dati e i parametri principali utilizzati per programmare o addestrare i sistemi.
Orbene questo approccio al tema della trasparenza, improntato ad un controllo ex ante che fa leva sulle logiche di funzionamento dell’IA, cioè sui requisiti strutturali, desta più di una perplessità rispetto alla sua percorribilità e alla sua stessa efficacia. Rischia infatti di tradursi in una informazione complicata e soprattutto difficilmente comprensibile per i lavoratori, che potrebbero non disporre neppure di quelle conoscenze elementari necessarie a trarre una qualsivoglia utilità dalla informazione in termini di trasparenza e consapevolezza.
Ma soprattutto ci si può interrogare sulla stessa efficacia di una informazione che ha la pretesa di conoscere come fa l’IA ad addestrarsi e a sviluppare i propri calcoli, più che indirizzarsi sull’esito dell’elaborazione algoritmica in termini di impatto sui singoli o su gruppi o categorie di lavoratori e lavoratrici, cioè in breve su cosa fa l’IA dal punto di vista dell’esercizio dei poteri datoriali.
Infatti se volessimo raffigurare come si snoda il processo decisionale automatizzato attraverso l’uso dell’IA scandendone le fasi lungo una immaginaria linea orizzontale, potremmo rappresentare grossolanamente il percorso logico/temporale nel modo seguente:
Ebbene il contenuto degli obblighi informativi attualmente previsti dal legislatore è prevalentemente incentrato sulle fasi 1 e 2, cioè sulle informazioni/dati in ingresso e sulle modalità con cui vengono classificati e processati, nonché sulla struttura dell’algoritmo cioè sulle logiche/criteri di addestramento e calcolo (c.d. black box dell’IA). Queste informazioni sono difficilmente conoscibili per gli stessi programmatori dei sistemi di IA (sia per i sistemi deterministici, ma ancor più per quelli non deterministici), figuriamoci se effettivamente possono essere intellegibili da parte dei lavoratori o anche dei loro rappresentanti sindacali dal punto di vista del corretto processamento dei dati e dei possibili effetti pregiudizievoli che potrebbero in ipotesi scaturirne.
Se poi si scende ad un livello di profondità adeguato ad ispezionare tecnicamente il concreto funzionamento della black box ci si scontra inevitabilmente con il fatto che dette informazioni sono in larga misura coperte dal segreto industriale e dalla normativa sulla proprietà intellettuale (non a caso l’art. 1 bis, comma 8, D. Lgs. n. 152/1997 sottrae dall’obbligo di informativa “i sistemi protetti da segreto industriale e commerciale”, vanificando sostanzialmente di fatto il diritto di informazione, posto che praticamente tutti i sistemi di IA sono coperti dal codice della proprietà intellettuale).
Questo criterio legale di messa in trasparenza, che si collega al principio di derivazione europea della trasparenza e “spiegabilità” dell’algoritmo (cfr. infra § 6), invero sembra rispondere più ad una logica di procedimentalizzazione del potere datoriale o di controllo dei motivi dell’atto datoriale, che non ubbidire ad una prospettiva di controllo diffuso sugli esiti e sugli effetti del sistema automatizzato al fine di consentire un vaglio, un controllo, un effettivo strumento di prevenzione degli abusi o correzione delle distorsioni del ragionamento algoritmico.
Sarebbe allora più opportuno ed efficace dal punto di vista della effettività della tutela dei lavoratori, sia come singoli sia come appartenenti a cluster o gruppi che potrebbero essere potenzialmente discriminati o penalizzati dalla decisione algoritmica, traslare il diritto di informazione sulle fase 3 e 4. Cioè configurare una informazione, magari a consuntivo e rispetto a parametri predefiniti (ad esempio i fattori discriminatori tipizzati: età, genere, orientamento sessuale, lingua, origine etnica, religione, appartenenza sindacale, ecc.) relativa agli esiti (output) del calcolo algoritmico e più ancora della successiva decisione datoriale conseguente. In tale prospettiva allora si esalterebbe la trasparenza dell’impatto dell’IA sull’esercizio dei poteri, spostando l’attenzione dai motivi agli atti discriminatori o penalizzanti.
Inoltre in considerazione della oggettiva rilevante difficoltà probatoria connessa alla rilevantissima asimmetria informativa insita nei sistemi automatizzati, sarebbe utile forse andare oltre la tecnica dei mezzi agevolati di prova e prevedere, come speciale misura di tutela, una completa inversione dell’onere probatorio nel caso di sospetta discriminazione algoritmica , ovviamente a fronte dell’evidenza di anomalie nelle risultanze che dovessero emergere dalle informative di impatto periodiche e consuntive rispetto ai parametri dati. In questo modo, con un guadagno notevole in termini di semplicità ed efficacia delle tutele, non sarebbe il lavoratore a dover rintracciare il difetto di funzionamento del sistema automatizzato o l’improprio utilizzo dei dati in input, ma sarebbe il datore di lavoro/committente a dover semmai dimostrarne il corretto funzionamento e la legittimità della decisione assunta con il sostegno del sistema algoritmico.
Conclusivamente c’è da chiedersi se effettivamente il controllo ex ante e orientato alla spiegazione del modo di operare della AI sia efficace oppure non sia più opportuno puntare al controllo ex post, cioè puntare alla spiegabilità degli effetti e dell’impatto (cioè sul “cosa fa” la IA, anziché sul “come fa”) rispetto alle posizioni giuridiche dei singoli e dei gruppi. Del resto sembra proprio questa la prospettiva della spiegabilità fatta propria dall’AI Act. Quest’ultimo, infatti, nei sistemi ad alto rischio si concentra appunto sugli impatti ponendo un diritto degli utenti a “poter interpretare gli output del sistema e utilizzarlo in modo adeguato” e ponendo il dovere di trasparenza ad un livello alto concentrato sulle finalità, sulla robustezza, accuratezza, cybersicurezza e sui rischi per la salute e per i diritti fondamentali, mentre prevede come eventuali e soltanto “ove opportuno” informazioni relative agli effetti rispetto a persone o gruppi di persone specifici, ai dati di input o di addestramento, convalida e prova o una descrizione dell’output atteso del sistema (considerando 47 e art. 13).
6. I modelli regolatori di tutela del lavoro nell’era dell’IA tra garanzie sostanziali e garanzie procedurali
Elevando lo sguardo a livello europeo, il modello regolatorio dell’intelligenza artificiale che si va affermando opera su due piani. Da un lato esso presenta una forte impronta valoriale orientata alla salvaguardia dei diritti fondamentali e costituzionali che ha portato all’affermazione di principi e regole di diritto sostanziale che rappresentano vere e proprie premesse valoriali e sistemiche nei più disparati ambiti di utilizzo dell’IA. Tra questi vanno menzionati essenzialmente: l’antropocentrismo in base al quale l’essere umano deve rimanere sempre al centro della tecnologia; la trasparenza; l’affidabilità; la sorveglianza e revisione umana e il diritto del lavoratore di esprimere la propria opinione e di contestare la decisione algoritmica .
Dall’altro lato il modello regolativo europeo è risk based, incentrato su garanzie procedimentali tipiche dei sistemi di accountability. Questo approccio regolativo, nello spazio europeo della privacy digitale, vede nel due data process lo strumento più efficace per garantire il rispetto delle regole a tutti i livelli e così porre argini al dilagare di poteri digitali privati, responsabilizzando i soggetti economici nelle catene di valore del mercato globale. Questa tecnica, già presente nell’apparato normativo della protezione dei dati personali, avrebbe l’ambizione anche di travalicare i limiti dei confini territoriali di applicazione delle norme prescrittive nello spirto di massima estensione territoriale possibile (territorial extension) delle politiche europee in questa materia .
Per quanto riguarda il piano delle garanzie sostanziali assistiamo all’emersione di diritti di nuova generazione nell’impiego della IA nell’ambito delle risorse umane che si stanno facendo largo a livello europeo e sono destinati a plasmare dalle fondamenta il contesto regolativo nazionale. Una sorta di meta-principi mirati a fornire risposta alle grandi questioni di fondo sopra segnalate (cfr. retro § 4) che, tra luci e ombre , configurano il bill of rights europeo della IA, al quale già hanno fatto il contrappunto gli Stati Uniti e la Cina con propri atti politici. E’ innegabile, infatti, che la questione regolatoria dell’IA assume una valenza planetaria nella contesa geopolitica tra gradi blocchi di potere .
Il 5 ottobre 2023 la Casa Bianca ha pubblicato la bozza dell’AI Bill of Rights. Si tratta di cinque principi cardine e relative pratiche che guideranno la progettazione, l’utilizzo e lo sviluppo di algoritmi di intelligenza artificiale che operano attraverso i dati biometrici, come il riconoscimento facciale, le impronte digitali, lo screening della retina e il DNA . La Cina, dal canto suo, si è posta l’obiettivo di diventare il leader mondiale entro il 2030 nella produzione di sistemi di IA e, attraverso il Ministero della Scienza e della Tecnologia, ha rilasciato nel novembre 2023 Linee guida sull’IA che enfatizzano l’innovazione e la sicurezza.
Per l’approfondimento della valenza dei principi di derivazione europea di tutela del lavoro nell’era dell’IA e delle ricadute nazionali si rinvia ad altri contributi dell’approfondimento tematico di questa Rivista. Qui può essere utile mettere in evidenza che da tali principi discendono ulteriori obblighi e divieti che, in parte, trovano autonoma affermazione in altri testi normativi e nelle stesse carte costituzionali, quali ad esempio la protezione della dignità, il principio di non discriminazione algoritmica e storica, l’obbligo di protezione dei dati personali, la parità tra uomo e donna. Principi e diritti che, nel contesto regolativo della IA, assumono una valenza nuova e rafforzativa dei diritti individuali e della persona umana al cospetto del mezzo tecnologico.
Inoltre essi si prestano ad essere ulteriormente declinati in altri criteri e regole di condotta nell’impiego dell’IA, così ad esempio, compreso nel principio dell’affidabilità (trustworthy) c’è quello della sicurezza e robustezza del funzionamento del sistema, dell’equità, della protezione della salute e sicurezza, della responsabilità e dell’accountability. Racchiuso nel principio di trasparenza c’è quello della spiegabilità, della libertà di opinione e di contestazione della decisione algoritmica.
Per quanto riguarda il principio della sorveglianza umana, c’è da comprenderne l’effettiva portata anche in relazione alla distinzione che il nostro legislatore ha ritenuto recentemente di tracciare, modificando l’art. 1 bis D. Lgs. n. 152/1997, tra sistemi decisionali “integralmente” automatizzati e gli altri sistemi automatizzati.
In proposito il Regolamento europeo prevede all’art. 29, par. 1 bis a carico dell’operatore l’obbligo di attuare la sorveglianza umana del sistema, garantendo che le persone preposte ad assicurare tale sorveglianza siano competenti, adeguatamente qualificate e formate e dispongano delle risorse necessarie per assicurare una efficace supervisione del sistema.
I due concetti - quello di sottoposizione alla sorveglianza umana e quello di integrale automatizzazione - non sono sovrapponibili. Il primo è riferibile al controllo sulla sicurezza del funzionamento del sistema, dal punto di vista della sua coerenza e compatibilità con i principi di tutela e con i limiti posti all’impiego dell’IA, che deve essere sempre garantita da chi fornisce e utilizza il sistema (cfr. art. 14 AI Act). Consiste quindi in una regola precauzionale di funzionamento del sistema.
Invece il concetto di sistema automatizzato è riferibile alla tipologia di decisione algoritmica, ossia al modo con cui avviene l’incorporazione dell’output algoritmico nell’atto decisionale del datore o del committente. L’automatismo riguarda quindi il passaggio dall’output dell’IA all’atto di esercizio del potere decisionale. Nei sistemi integralmente automatizzati si ha diretta trasposizione dell’output algoritmico nell’atto decisionale imputabile al datore/committente. Nei sistemi non integralmente automatizzati tra i due momenti o fasi c’è uno spazio valutativo autonomo preliminare del datore che potrebbe comportare anche una integrazione o modificazione dell’esito a cui è approdato il calcolo algoritmico.
Dal punto di vista delle tecniche di garanzia, v’è da dire che l’approccio europeo è allo stato maggiormente incentrato sulle tecniche di governance e accountability, che fanno leva sulla valutazione preventiva dei rischi, sulla adozione di sistemi di gestione della qualità e affidabilità dei sistemi, sui criteri di responsabilizzazione e controllo dei soggetti obbligati e dei portatori di interesse.
Il legislatore nazionale ha mosso i primi passi in questa direzione, sulla scorta di quanto già avvenuto con il GDPR, ma in modo più timido e oggettivamente confuso con la previsione di cui all’art. 1 bis, comma 4, D. Lgs.n. 152/1997. Qui, rispetto ai sistemi automatizzati, si fa riferimento ad una integrazione dell’informativa sui dati personali e ai relativi registri di trattamento. Ma si fa altresì riferimento all’obbligo per il datore di lavoro o il committente di effettuare “un’analisi dei rischi e una valutazione d’impatto degli stessi trattamenti, procedendo alla consultazione preventiva del Garante per la protezione dei dati personali ove sussistano i presupposti di cui all'articolo 36 del Regolamento medesimo”. Insomma non si comprende chiaramente se la previsione in esame radichi un obbligo autonomo a carico del datore/committente di dotarsi di un sistema di gestione e accountability specifico per i sistemi di IA ovvero si limiti a richiedere l’integrazione del sistema di gestione dei dati personali di cui al GDPR con informazioni relative ai dati e ai trattamenti del sistema di IA.
L’approccio del legislatore nazionale, comunque, nel complesso appare attualmente piuttosto sbilanciato verso una configurazione prevalentemente individuale delle garanzie che privilegia la prospettiva delle garanzie assiologiche sostanziali del diritto/obbligo informativo e di accesso ai dati, declinate in una prospettiva ex ante (cfr. 5.1). Le garanzie procedurali rimangono su un piano secondario e sfocato, confermando l’impressione di una legislazione nazionale settoriale ancora immatura, la cui coerenza con il quadro regolativo sovranazionale, come già detto, è tutta da verificare.
7. La dimensione individuale e collettiva del diritto alla trasparenza e le nuove declinazioni della partecipazione.
La tematica della trasparenza algoritmica in realtà è declinata dal legislatore nazionale in una dimensione sia individuale, sia collettiva. L’art. 1bis del D. Lgs. 152/1997 prevede un numero rilevante e forse eccessivo di informazioni (peraltro complesse e sofisticate) da comunicare ai singoli lavoratori e alle rappresentanze sindacali. In particolare tutte le informazioni vedono come destinatari principali i lavoratori (art. 1bis, comma 1 e 2), ma allo stesso tempo devono essere anche trasmesse alle rsa/rsu e, in loro mancanza, alle “sedi territoriali delle associazioni sindacali comparativamente più rappresentative sul piano nazionale” (art. 1bis, comma 6). A ciò si aggiunge il diritto di accesso ai dati e il diritto di informazione integrativa riconosciuto al lavoratore “direttamente o per il tramite delle rappresentanze sindacali aziendali o territoriali” (comma 3).
L’impressione è quella di una centralità della informazione individuale, rispetto alla quale l’informativa sindacale appare collaterale o secondaria. Lo spostamento del fulcro informativo a livello individuale potrebbe generare soltanto l’illusione di una maggiore consapevolezza, mentre la storia dimostra come forme di informazione collettiva sono più efficaci e in grado di rappresentare un presidio più bilanciato rispetto all’espansione dei poteri datoriali.
Al cospetto delle sfide poste dalla IA in realtà è proprio l’autonomia collettiva che dovrebbe attivarsi per trovare le giuste forme di specificazione e attuazione concreta nei diversi contesti di lavoro facendosi carico di trovare nuovi equilibri e nuovi bilanciamenti . Rientra del resto a pieno titolo nella responsabilità delle parti collettive sviluppare e declinare i diritti di nuova generazione o reinterpretare principi e criteri di tutela classici del diritto del lavoro, aggiornando anche le tecniche mediante le quali adottare i controlimiti necessari a bilanciare l’esercizio dei poteri e delle prerogative datoriali.
La tecnica della procedimentalizzazione dei poteri datoriali attraverso il controllo sindacale è del resto quella più classica per il diritto del lavoro. Nel caso della IA dovrebbe puntare ad attenuare l’asimmetria informativa, accrescere la trasparenza, specialmente attraverso una partecipazione all’analisi e alla valutazione di impatto dell’uso dell’IA nei contesti di lavoro.
In alcuni paesi europei si è optato per soluzioni più specifiche, come l’istituzione di una rappresentanza tecnica e specializzata o l’affiancamento delle rappresentanze sindacali con figure esperte dedicate (magari con oneri condivisi o posti a carico del datore di lavoro) .
Senza spingersi sul terreno impervio della negoziazione o codecisione dell’algoritmo che rieccheggia una concezione forte di partecipazione alla gestione dell’impresa lontana dalla tradizione nazionale di relazioni industriali, le rappresentanze sindacali potrebbero esplorare forme innovative di partecipazione inquadrandole all’interno delle garanzie procedurali tipiche dei sistemi di accountability e dei modelli di organizzazione e gestione basati sull’approccio organizzativo già diffuso in campi limitrofi, come quello della salute e sicurezza, della prevenzione dei reati a vantaggio dell’impresa, della privacy e ora anche della certificazione di parità di genere. Questi modelli organizzativi sono destinati a conformare sempre più l’agire imprenditoriale, anche sulla spinta della evoluzione delle politiche di responsabilità sociale d’impresa verso forme più evolute di pratiche di sostenibilità ESG (environmental, social and corporate governance) e di due diligence, proiettate in una visione di filiera.
Elementi essenziali di questi modelli sono la definizione da parte dell’alta direzione di politiche, strategie, obiettivi. Ma centrale, nell’ottica del miglioramento continuo, è il momento del controllo e della verifica sull’attuazione di quanto pianificato, solitamente affidati a soggetti e organismi di audit interno.
Ebbene potrebbe immaginarsi, come sviluppo futuro delle forme di partecipazione sindacale nella cornice dei modelli organizzativi fondati sulla responsabilità, un ruolo più attivo delle rappresentanze sindacali, previa formazione delle stesse, in tale contesto. Specialmente nella fase del controllo/verifica/audit nell’ambito della quale si rendono possibili valutazioni di impatto congiunte e, con esse, si creano le premesse per un contributo propositivo volto al riesame delle politiche, delle strategie e delle azioni gestionali. Con questa nuova modalità di coinvolgimento organizzativo delle rappresentanze sindacali potrebbero essere sperimentate pratiche di partecipazione sindacale orientate ad un utilizzo responsabile e sorvegliato dell’IA nei contesti lavorativi.