testo integrale con note e bibliografia

1. Premessa.
Nel 2017, mentre il Parlamento europeo avviava il dibattito politico per disciplinare l’AI (ci vorranno poi quattro anni per la proposta della Commissione di un Regolamento ed altri tre per la sua pubblicazione sulla GUUE), in una nota intervista al Corriere Rafael Reif, neo eletto Presidente del MIT, esortava gli stati a procedere con cautela nella regolazione del fenomeno evitando il rischio di fermare l’innovazione con regole troppo esigenti senza una valutazione adeguata dei rischi in gioco nella resa alle paure di un’opinione pubblica troppo sospettosa se non impaurita. Per Reif gli stati avrebbero dovuto piuttosto valorizzare il contributo potenzialmente enorme che le nuove tecnologie certamente avrebbero apportato per il riequilibrio ambientale o la protezione della salute cercando così di tranquillizzare i cittadini: lanciava in questa prospettiva una “MIT campain for a better world” allargata a 150 paesi diversi (ripresa poi in qualche nodo da una Commissione ad hoc organizzata dall’ONU) in funzione di una limitata e non paralizzante convergenza normativa globale, laddove emergesse la sua stretta necessità. Questa estrema prudenza, che può apparire come una tarda e problematica proiezione dell’ideologia ottimistica e neo-anarchica, di matrice prevalentemente californiana, dei decenni di fine millennio  anche se spesso temperata da un certo interesse mostrato per i riflessi sociali della “nuova automazione” con la disponibilità di grandi imprese USA per finanziare sperimentazioni di “reddito di base” in zone aggredite dalla disoccupazione tecnologica non è stata però vincente in Europa. Il sospetto che la soluzione dell’ abstention regolativa volesse in realtà salvaguardare l’assoluta egemonia americana nel settore con il suo timbro oligopolistico (in virtuoso collegamento con le grandi Università private), una cultura più radicata dei principi costituzionali di protezione dei diritti fondamentali ed in particolare di quelli socio-economici (anche per la maggiore forza del welfare europeo), un peso maggiore dei sindacati nelle scelte politiche dell’Unione ed altri elementi della tradizione continentale tra i quali indubbiamente una visione più critica della “distruzione creatrice” dei processi di ristrutturazione capitalistica hanno portato a scelte, se non opposte a quelle USA, in ogni caso molto diverse. Come è stato recentemente ricordato il corpus normativo dell’Unione sul digitale, esteso ora all’AI che utilizza il web come base operativa di sviluppo e creazione è ormai “corposo .. e traduce, in gran parte, l’obiettivo politico della prima Commissione presieduta da Ursula von der Leyden di affermare la sovranità digitale europea.. il GPDR è stato seguito dal Data Act (che regola la circolazione dei dati), dal Data Governance Act ( sul riutilizzo dei dati ed il cosidetto “ altruismo dei dati”), dal Digital Markets Act e dal Digital Services Act Nis2 (sulla sicurezza informatica), dall’Eidas 2 ( sull’identità europea digitale) e dall’AI Act ( accesso al mercato europeo dei prodotti e dei servizi di intelligenza generale)”. Aggiungiamo che a giorni si aspetta la pubblicazione nella GUUE della direttiva sul lavoro su piattaforme che coinvolgerà, secondo le previsioni della Commissione, 45 milioni di lavoratori subordinati e collaboratori autonomi nel 2025 ( ). Si tratta solo dei più importanti provvedimenti cui si aggiungono o si aggiungeranno quelli nazionali che si collegano all’ondata normativa sovranazionale ( ) che si esprime in genere con regolamenti, ma di “tipo nuovo”con clausole di flessibilità ed adattamento ed anche con rinvii continui a specificazioni di Autorità interne o della stessa Commissione. Nel caso italiano si è arrivati ad una sorta di ricezione “anticipata” (piuttosto disordinata) dei doveri di informazione agli interessati ed ai loro rappresentanti sulle modalità di funzionamento dei sistemi decisionali e di monitoraggio lavorativo automatizzati con l’art. 1-bis D. Lgs. n. 152/97 che sembra voler anticipare le disposizioni della direttiva sul lavoro intermediato da piattaforme e dello stesso l’AI act, la cui coerenza, ora, con i provvedimenti sovranazionali è molto incerta. Dovendo scegliere tra un diritto degli animali (attraverso clausole generali) e un diritto dei cavalli (attraverso norme più specifiche e dettagliate) per citare, anche nel campo dell’innovazione, l’alternativa metodologica stilizzata in una molto citata decisione USA ( ), l’UE ha chiaramente optato per la seconda soluzione, secondo alcuni commentatori in modo alluvionale che non terrebbe conto della consolidato insegnamento per cui più la legge è dettagliata più si aprono dubbi interpretativi, cui ovviamente, nell’UE, si aggiungono la diversa natura delle fonti utilizzate (regolamenti o direttive) ed il diverso livello di disciplina (sovranazionale, nazionale ed ora anche convenzionale).
2. La metafisica influente il processo di regolazione dell’UE.
La straordinaria complessità nella realizzazione di questo “storico” processo di regolazione impegnerà molto la Corte di giustizia che, proprio in questo periodo, sembra ancora alle prese con la precisazione di aspetti cruciali (in rapporto alla protezione dei diritti della Carta di Nizza) della “normativa base” dell’intera ondata regolativa e cioè il GDPR. Tuttavia, nonostante la sfida alle capacità di controllo giurisdizionale e, talvolta, la moltiplicazione degli obblighi e dei limiti per chi opera nel settore, e’ rintracciabile, comunque, una cornice complessiva ed un insieme ricostruibile di meta- principi comuni che può guidare il processo epocale di codificazione europea del mondo digitale ed ora dell’AI.
La visione prospettica, olistica, filosoficamente impostata, con la quale il fenomeno dell’AI, del digitale e delle piattaforme è stata affrontata nel vecchio continente risale all’adozione di un piano complessivo (digital compact), elemento portante distintivo della strategia 20-30, con la pretesa di indirizzare lo sviluppo delle tecnologie digitali verso scopi e mete emancipative e liberatorie: come dice l’Ai act l’obiettivo è “promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea (la "Carta"), compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, contro gli effetti nocivi dei sistemi di IA nell'Unione nonché promuovere l'innovazione” (art. 1 nonché considerando n. 1) o, per l’inspirata Declaration of principles and rights for the digital decade (che dovrebbe rappresentare una cornice costituzionale generale) del Dicembre 2022 ( ) “mettere le persone al centro della trasformazione digitale”, riaffermare il ruolo strumentale della tecnologia “al servizio ed a beneficio di coloro che vivono nell’UE” e precisare che “la visione dell’UE per la trasformazione digitale mette al centro le persone, conferisce loro maggiore autonomia e responsabilità”. Si intendono recuperare quelle tradizioni di pensiero razionalista e neo- illuministica che vedono nella tecnologia e nell’innovazione, da K. Marx a Lord Keynes sino alla più tarda filosofia critica della scuola habermasiana, gli strumenti essenziali, se sottoposti al controllo ed all’indirizzo di una sfera pubblica attiva ed informata, per liberare l’uomo dal regno della necessità affrancandolo dalle attività più ingrate e rafforzandone le liberta’ creative in senso onnilaterale. Come dicono Adalberto Perulli e Valerio Speziale: “ e’ possibile che il diritto intrattenga con la tecnologia una diversa relazione di tipo strumentale assoggettando la tecnica alla prospettiva assiologia di protezione della persona umana e di liberazione del lavoro”? ( )
3. Oltre la “liberta negativa”.
La protezione del lavoro che si sprigiona nelle sue inedite ricombinazioni e riprogettazioni con le macchine intelligenti e negli scambi digitali è solo un aspetto, certamente tra i più problematici, dell’aspirazione alla direzione umana, controllata democraticamente e attraverso la sfera pubblica, della grande trasformazione in corso, difficilmente gestibili con gli strumenti categoriali e l’armamentario operativo del passato. Mentre i grandi pensatori che hanno cercato di anticipare i processi di automazione pensavano più che altro alla progressiva riduzione dell’orario di lavoro, a cominciare da Lord Keynes nel 1930 ( ), ciò che vediamo è molto più dirompente perché oltre alla distruzione massiccia, almeno nel breve periodo di posti di lavoro ( ), si aggiunge la mutazione radicale delle caratteristiche del lavoro classico (su questo per ragioni di spazio non mi soffermo), anche per l’archiviazione di una rigida separazione del tempo di vita da quello produttivo in senso stretto e degli stessi elementi fondanti il processo produttivo, che diventa data driven, di tipo “estrattivo”, basato cioè su di un combustibile molto particolare, ontologicamente sociale, che è il” dato trafugato” dal deposito dell’intelligenza collettiva oggi racchiuso in Internet con la sua rete di scambi tra le persone e l’”autodichiarazione” delle proprie preferenze .
La Declaration già citata del 2022 al principio della finalizzazione al progresso umano dei processi digitali è costretta, quindi, ad introdurre un secondo principio di cautela per cui “la trasformazione digitale non dovrebbe comportare la regressione dei diritti. Ciò che è illegale offline è illegale online”. La prima logica vede un incremento della libertà positiva (“ libertà di”) , la seconda di libertà negativa (libertà da); controllo e limiti alla trasformazione, protezione dei diritti. Si è spesso sottolineato che il processo di costituzionalizzazione del fenomeno della digitalizzazione e poi dell’AI ha seguito stelle polari valoriali tra loro diverse; in Usa, la libertà, in UE la dignità ma le due dimensioni andrebbero in prospettiva riconciliate ( ). E’ chiaro il doppio movimento del processo regolativo che consente di mettere insieme l’AI Act ( e altri regolamenti più centrati sul lato commerciale e delle imprese)e la direttiva sul lavoro mediante piattaforme che hanno basi giuridiche diverse; da un lato promuovere l’innovazione e consentire il dispiegamento delle rivoluzionarie potenzialità tecnologiche (attraverso il vettore privilegiato del mercato unico e delle imprese),come risulta univocamente anche dal Rapporto Draghi ( ), e dall’altro minimizzare e bilanciare i possibili effetti negativi sul livello di diritti e di welfare già acquisiti ed anche consentire una loro modernizzazione. Un doppio movimento che in sé può determinare incoerenze e contraddizioni che solo la costante riconduzione agli scopi ultimi della strategia europea connessi al controllo ed alla direzione collettiva (“umana”nel senso pubblico e consapevole dei processi deliberativi) in corso può tendere ad armonizzare. La natura rimediale e garantista del diritto del lavoro non si coniuga con facilità con la prepotente fase di trasformazione neppure attraverso la mediazione dei principi di privacy e trasparenza sanciti nella Carta dei diritti, persino nella lettura post-individualista di questi principi che ne offerto Stefano Rodotà e la sua Scuola. E’ necessario qualcosa di più che bilanciamenti “tecnico-giuridici” tra i due aspetti visto che sembra cambiare la stessa natura del valore protetto e cioè del “lavoro” sfumando questo molto spesso nell’ ordinaria attività delle persone, nei comportamenti che esprimono la loro stessa soggettività.
Mi pare che l’intervento dovrebbe svilupparsi in due direzioni: per usare ancora il linguaggio di Isaiah Berlin da un lato di “libertà negativa” o “libertà da” (di conferma del capitolo sociale dell’Unione e dei limiti stabiliti dal GDPR in poi di rispetto della privacy e della dignità dei lavoratori, secondo una logica protettiva o rimediale) dall’altro di libertà positiva o “liberta di” , emancipatrice dal lavoro ripetitivo e poco qualificato ed anche da modalità troppo gerarchiche ed asfissianti di collaborazione produttiva con terzi che certamente l’AI oggi consente molto più di prima. Ma forse andando oltre servirebbe un efficiente webfare ( ) capace di restituire alle vittime del progresso tecnologico almeno una parte della ricchezza prodotta dal patrimonio in dati (costruito dalla cooperazione sociale) ma utilizzato privatamente a fini produttivi e, ancora, uno statuto delle garanzie di base per ogni personal worker (cioè di un soggetto che eroga un’attività produttiva per terzi prevalentemente di tipo personale)- oltre la vetusta distinzione tra subordinati ed autonomi- di cui oggi i diritti di informazione e di contrattazione algoritmica costituiscono la prima ossatura. Ma su questa prospettiva l’AI Act offre poco; più coraggiosa ed anticipante la direttiva piattaforme sulla quale torneremo in altra occasione, soprattutto nella seconda parte sui diritti di contrattazione algoritmica”.
4. AI act e lavoro. Tutele molto limitate ma agli stati residua uno spazio importante di integrazione.
Rammento solo che il regolamento (n. 1689/2024 del 13.6.2024) si fonda su una valutazione del grado di rischio che comportano “lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi di intelligenza artificiale (sistemi di IA) nell'Unione” valutazione nella quale la protezione dei dati personali (comunque fermo rimanendo l’ombrello garantista del GDPR) e la tutela dei diritti fondamentali della Carta di Nizza, come abbiano già ricordato, giocano un ruolo determinante. Alcune “pratiche” dell’AI sono direttamente vietate salvo deroghe tassative dall’art. 5 (come per l’identificazione biometrica in tempo reale, fondamentalmente per ragioni di pubblica sicurezza e di repressione di reati); molte di queste ipotesi limitative replicano i divieti del GDPR tra cui di un certo rilievo il punto f) dell’art. 5 AI Act che esclude l’uso di sistemi di AI per “ inferire le emozioni di una persona nell’ambito del luogo di lavoro…e di sistemi che sfruttano la vulnerabilità di una persona fisica o di gruppi di persone ..dovute all’età, alla disabilità, o a una specifica situazione sociale o economica distorcendone il comportamento e provocando un danno”, di sicuro interesse sociale, anche se il divieto correttamente colpisce innanzitutto l’immissione nel mercato di tali sistemi prima ancora della loro messa in servizio e dell’uso di questi. L’art. 6 invece rinvia agli allegati al Regolamento che stabiliscono i settori definiti “ad alto rischio” per i quali vigono norme particolarmente esigenti (cfr. considerando n. 1); complicatissime procedure consentono la “de-classificazione” dei settori già etichettati o l’inclusione di altri. L’allegato III al n. 4 contempla i settori “occupazione, gestione dei lavoratori e accesso al lavoro autonomo”: specifica l‘allegato che sono interessati
“a) i sistemi di IA destinati a essere utilizzati per l'assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati; b) i sistemi di IA destinati a essere utilizzati per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell'ambito di tali rapporti di lavoro”.
Si tratta di una copertura vincolistica ad ampio raggio che non sembra omettere nessun settore produttivo (in senso ampio) e che integra anche le fasi preliminari all’assunzione, anche se il lavoro autonomo sembra contemplato solo per quest’ultimo profilo. L’art. 6 sembrerebbe limitare questo campo di “speciale attenzione” laddove stabilisce che
“un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale “
ma poi si aggiunge che “un sistema di IA di cui all'allegato III è sempre considerato ad alto rischio qualora esso effettui profilazione di persone fisiche” per cui nel campo del lavoro sembra inevitabile l’operatività del criterio dell’alto rischio ( ). Il complesso dei doveri ed obblighi, anche preventivi e successivi, all’immissione nel mercato dei sistemi di AI ed alla loro utilizzazione gravano in massima parte sui fornitori e su coloro che commercializzano i sistemi e non su chi li utilizza come datore di lavoro (nel linguaggio del regolamento i deployer) per cui appaiono in sostanza lontani dall’impianto classico del diritto del lavoro dei paesi più avanzati e su questi non ci soffermeremo. Rimane però l’impressione che siano necessari investimenti molto ingenti per fronteggiare questi obblighi, anche sotto il profilo del doveroso ausilio di personale altamente specializzato, che potrebbero tagliare fuori le piccole imprese e più generale le imprese del vecchio continente, salvo eccezioni rarissime. A questo paradosso per cui l’ Unione sembra voler competere solo attraverso le cosidette “regole” sembrano appuntarsi anche alcuni passaggi del Rapporto Draghi sulla competitività visto che è convinzione diffusa che difficilmente si potrà ripetere un cosidetto ”effetto Bruxelles“ ( ), la capacità cioè che ha avuto la disciplina della privacy dell’Unione ad imporsi come modello mondiale. Alcuni di questi doveri implicano un obbligo di cooperazione con i deployer (quindi anche i datori di lavoro) come nel caso in cui un fornitore di un sistema (art. 20), che abbia motivo per ritenere che un sistema di AI presenti rischi di per la salute e la sicurezza dei lavoratori e per i diritti fondamentali, che è tenuto ad indagare su eventuali segnalazioni dei deployer e deve avvertire le autorità vigilanti; così come è tenuto ad informare i deployer su eventuali non conformità del sistema con il regolamento ed adottare le misure correttive necessarie .
La norma però cruciale sul lato lavoristico dell’AI Act è l’art. 26 che vincola i datori di lavoro a seguire scrupolosamente le istruzioni per l’uso dei fornitori e di attuare la sorveglianza umana dei detti sistemi attraverso persone “che dispongono della competenza e dell’autorità e del sostegno necessari” (art. 26 punto 2). Come già accennato i deployer hanno la responsabilità del monitoraggio successivo all’installazione e devono quindi avvertire i fornitori in caso risultino dei rischi. Il comma 7 dell’art. 26 ha connotazioni squisitamente lavoristiche:
“prima di mettere in servizio o utilizzare un sistema di AI ad alto rischio sul luogo di lavoro, i deployer che sono datori di lavoro informano i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all'uso del sistema di IA ad alto rischio. Tali informazioni sono fornite, se del caso, conformemente alle norme e alle procedure stabilite dal diritto e dalle prassi dell'Unione e nazionali in materia di informazione dei lavoratori e dei loro rappresentanti”.
Compaiono così lavoratori e i loro rappresentanti che debbono essere informati prima della messa in uso dei sistemi: il regolamento non prende posizione sul punto se le informazioni debbano (usa l’espressione “se del caso”) essere fornite secondo le procedure dell’Unione ed interne in materia né sul contenuto di dette informazioni, né- infine-su chi siano i “rappresentanti” abilitati. L’uso del termine “ lavoratori” parrebbe indicare che siano solo i lavoratori dipendenti ( o i cosidetti falsi autonomi) a godere di questa prerogativa nel silenzio dell’art. 3 dedicato alle definizioni, secondo i principi generali. Vi è quindi una diversità radicale con le previsioni della cosidetta direttiva sulle piattaforme che è molto analitica (sino a rischiare qualche punto contraddittorio) sui contenuti delle informazioni, su chi deve riceverle (in linea di massima anche i lavoratori autonomi), sul loro contenuto e sui soggetti sindacali deputati a riceverle ( ). E’ già oggi evidente che si dovrà il più possibile interpretare unitariamente regolamento e direttiva cercando di offrire un “ codice” ( ) di diritti di chi lavora o collabora alla produzione nell’impatto con le nuove tecnologie, che non discrimini proprio il lavoro indipendente in nome di rigidità classificatorie di stampo “ottocentesco” ( ). L’informazione preventiva ( ) resta come più significativo baluardo nel proteggere i dipendenti da trattamenti e decisioni illecite ma l’emendamento del Parlamento diretto ad introdurre una vera e propria consultazione, certamente anch’essa lontana da un obbligo a contrarre (cioè ad una forma di codecisione), non è stato recepito , anche se la strada è ancora percorribile su base di scelte nazionali ( ).Non ha avuto fortuna nemmeno l’emendamento del Parlamento sull’obbligo di una valutazione d’impatto preventiva (prima dell’utilizzazione dei sistemi) sui diritti fondamentali nel settori “ ad alto rischio” che, invece, è stato introdotto per i soli deployer organismi di diritto pubblico o enti privati che forniscono servizi pubblici, sempre che non abbiano già ottemperato sul punto in precedenza ma ad altri fini (come ad esempio il rispetto del GDPR). Gli elementi della valutazione d’impatto è molto dettagliata e certamente la disposizione se rispettata può portare a significativi risultati nei settori investiti dalla norma:
a) una descrizione dei processi del deployer in cui il sistema di IA ad alto rischio sarà utilizzato in linea con la sua finalità prevista; b) una descrizione del periodo di tempo entro il quale ciascun sistema di IA ad alto rischio è destinato a essere utilizzato e con che frequenza; c) le categorie di persone fisiche e gruppi verosimilmente interessati dal suo uso nel contesto specifico; d) i rischi specifici di danno che possono incidere sulle categorie di persone fisiche o sui gruppi di persone individuati a norma della lettera c), del presente paragrafo tenendo conto delle informazioni trasmesse dal fornitore a norma dell'articolo 13; e) una descrizione dell'attuazione delle misure di sorveglianza umana, secondo le istruzioni per l'uso; f) le misure da adottare qualora tali rischi si concretizzino, comprese le disposizioni relative alla governance interna e ai meccanismi di reclamo”.
Come si dirà il regolamento consente trattamenti di miglior favore per proteggere i diritti dei lavoratori per cui la disposizione potrebbe essere resa sul piano interno obbligatoria per ogni deployer. Poteri d’ufficio di controllo sul rispetto dei diritti fondamentali anche del lavoro potrebbero essere esercitati ex art. 77 secondo la quale
” Le autorità o gli organismi pubblici nazionali che controllano o fanno rispettare gli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali, compreso il diritto alla non discriminazione, in relazione all'uso dei sistemi di IA ad alto rischio .. hanno il potere di richiedere qualsiasi documentazione creata o mantenuta a norma del presente regolamento o di accedervi…, quando l'accesso a tale documentazione è necessario per l'efficace adempimento dei loro mandati entro i limiti della loro giurisdizione. L'autorità pubblica o l'organismo pubblico pertinente informa l'autorità di vigilanza del mercato dello Stato membro interessato di qualsiasi richiesta in tal senso”. L’autorità di vigilanza sul mercato può, peraltro, anche ordinare una prova del sistema.
L’altra disposizione altamente significativa per il suo rilievo giuslavoristico è l’art. 86 che dispone che “
“qualsiasi persona interessata oggetto di una decisione adottata dal deployer sulla base dell'output di un sistema di AI ad alto rischio ..che produca effetti giuridici o in modo analogo incida significativamente su tale persona in un modo che essa ritenga avere un impatto negativo sulla sua salute, sulla sua sicurezza o sui suoi diritti fondamentali ha il diritto di ottenere dal deployer spiegazioni chiare e significative sul ruolo del sistema di IA nella procedura decisionale e sui principali elementi della decisione adottata”.
Si tratta di una disposizione che ricorda quella della direttiva piattaforme( ): quest’ultima però si innesta a monte su una serie di informazioni dettagliate delle piattaforme che comprendono ogni aspetto significativo del funzionamento degli algoritmi ed a valle sulla possibilità di chiedere la revisione umana di una decisione presa in via automatica o anche influenzata significativamente dai sistemi in uso. Nel caso dell’art. 86 la parte a monte è sommariamente indicata (a meno di non essere incoerenti con le finalità del regolamento le informazioni dovrebbero essere in grado di mettere in grado il soggetto di capire almeno la logica e le finalità del sistema di AI) ed a valle il diritto alla revisione umana non è indicato, ma potrebbe aggiungerlo l’ordinamento interno come trattamento di miglior favore, anche per realizzare le finalità dello stesso regolamento. Le spiegazioni offerte dal deployer, però, potrebbero essere il primo elemento per far valere violazioni del diritto dell’Unione e segnatamente della sua tutela antidiscriminatoria.
5. L’intervento normativo degli stati in funzione integrativa.
E’ importante sottolineare come sia lo stesso Regolamento ad autorizzare interventi nazionali ( ) ed a chiamare in gioco addirittura la contrattazione collettiva in campo lavorativo (che opererebbe così in modo piuttosto originale come fonte integrativa di un provvedimento UE regolamentare). Non era scontato, anche alla luce del diritto dell’Unione primario, perché le basi giuridiche del regolamento sono gli artt. 114 e 16 del TFUE che, quindi, non ha alcuna base nel capitolo sociale dell’Unione nonostante gli sforzi del PE. Tuttavia l’art. 2.11 perentoriamente afferma
“Il presente regolamento non osta a che l'Unione o gli Stati membri mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all'uso dei sistemi di IA da parte dei datori di lavoro, o incoraggino o consentano l'applicazione di contratti collettivi più favorevoli ai lavoratori” ( ). A ciò si aggiunge il considerando n. 9 veramente molto determinato nello stabilire l’immunità delle disposizioni a carattere sociale di matrice sovranazionale da ogni limitazione per effetto del regolamento che altrimenti potrebbe avere una portata di liberalizzazione:
“inoltre, nel contesto dell'occupazione e della protezione dei lavoratori, il presente regolamento non dovrebbe pertanto incidere sul diritto dell'Unione in materia di politica sociale né sul diritto del lavoro nazionale, in conformità del diritto dell'Unione, per quanto riguarda le condizioni di impiego e le condizioni di lavoro, comprese la salute e la sicurezza sul luogo di lavoro, e il rapporto tra datori di lavoro e lavoratori. Il presente regolamento non dovrebbe inoltre pregiudicare l'esercizio dei diritti fondamentali riconosciuti dagli Stati membri e a livello di Unione, compresi il diritto o la libertà di sciopero o il diritto o la libertà di intraprendere altre azioni contemplate dalla disciplina delle relazioni industriali negli Stati membri nonché il diritto di negoziare, concludere ed eseguire accordi collettivi, o di intraprendere azioni collettive in conformità del diritto nazionale. Il presente regolamento dovrebbe lasciare impregiudicate le disposizioni volte a migliorare le condizioni di lavoro nel lavoro mediante piattaforme digitali di cui alla direttiva del Parlamento europeo e del Consiglio relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali….”
Questo rinvio, peraltro, salva l’art. 1 bis d.lgs. n. 152 del 1997 poiché l’entrata in vigore integrale del regolamento senza l’art. 2 lo avrebbe reso problematico ponendo obblighi informativi non solo per le piattaforme lavorative ma anche per alcuni trattamenti di profilazione mediante AI che vanno oltre le disposizioni schematiche già esaminate dell’art. 26. Una questione che può riguardare le integrazioni normative nazionali è se queste possano tutelare anche i lavoratori genuinamente autonomi : secondo i principi generali quando gli atti dell’Unione parlano di lavoratori lo fanno in senso stretto o si riferiscono ai cosidetti “ falsi autonomi”; ma forse si potrebbe intendere in senso estensivo ed evolutivo il termine “lavoratori” utilizzato nell’art. 2 AI Act che in sé ha un contenuto meramente autorizzatorio eventuali discipline nazionali. Non solo il considerando n. 9 accenna alla salvaguardia delle tutele previste per le condizioni di lavoro mediante piattaforme che riguardano anche gli autonomi ma l’UE sembra ( cfr. l’ispirazione dell’European social pillar) auspicare oggi un accesso universalistico alle tutele di base e la Commissione ha, nel marzo del 2022, reso pubbliche le sue Linee guida sulla legittimità della contrattazione collettiva dei lavoratori autonomi (per lo meno di quelli che versano in condizioni di debolezza economica), superando l’orientamento della Corte di giustizia che considera questi come imprenditori ed assimila i loro contratti collettivi ai “cartelli” proibiti dall’art. 101 TFUE. Limitare ai soli dipendenti gli interventi nazionali necessari per proteggere chi collabora al processo produttivo da prassi scorrette ed abusive a mezzo di AI sarebbe incoerente con le linee evolutive del diritto dell’Unione, tanto più che gli stati interverrebbero in ogni caso oltre la sfera di applicazione diretta di questo. Ricordo che l’1 bis. già menzionato contempla anche gli autonomi coordinati e continuativi di cui all’art. 409 c.pc. e quelli cosidetti eterorganizzati: questa apertura a livello interno ad obblighi informativi oltre la sfera della subordinazione in relazione all’utilizzazione dell’AI nei monitoraggi e nelle decisioni automatizzate risulterebbe -quando il regolamento sarà obbligatorio in tutte le sue parti- legittimo solo se al termine “ lavoratori” all’art. 2 AI Act venisse dato un significato diverso da “ dipendenti”.
Come noto è pendente al Senato un disegno di legge n. 1146 “ disposizioni e delega al Governo in materia di intelligenza artificiale” a vasto raggio di regolazione degli usi dell’AI nel “ rispetto del regolamento AI Act”.
Esaminando la proposta governativa condivido i primi commenti della dottrina ( ) che evidenziano la scarsa rilevanza dell’apporto nazionale rispetto al, forse già troppo affollato ed a rischio di entropia, quadro sovranazionale riguardante la disciplina delle nuove tecnologie nel loro rapporto con le dinamiche lavorative (considerata anche la imminente pubblicazione della direttiva piattaforme). Si tratta del solo l’art.10, composto da tre commi. Cominciamo dal primo comma che recita : “l’intelligenza artificiale è impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea”. E’- come sembrerebbe- una disposizione di principio o si voleva introdurre una norma self-executing giustiziabile? La mancanza di sanzioni sembrerebbe escludere la seconda ipotesi. Si vogliono indicare causali tassative per l’uso dell’AI? Processi di mera automazione produttiva mediante Ai diventerebbero impossibili? Non sarebbe quest’ultima ipotesi contraria frontalmente all’impostazione stessa del Regolamento che autorizza trattamenti di miglior favore per i lavoratori ma non l’impossibilità di scelte tecnologiche del datore di lavoro labour saving che sarebbe non bilanciata con il diritto d’impresa e non proporzionale. Inoltre la genericità della formulazione creerebbe un caos interpretativo notevole posto che è quasi impossibile individuare queste causali in modo univoco ( ); si bloccherebbe l’evoluzione tecnologica, per giunta “in un paese solo”; meglio rinunciare quindi a questa norma che o è priva di contenuti prescrittivi oppure “antistorica”, collocando eventualmente queste affermazioni nelle premesse programmatiche della legge. Analogo discorso deve farsi sul terzo comma sul divieto di discriminazione. “l’intelligenza artificiale nell’organizzazione e nella gestione del rapporto di lavoro garantisce l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione del sesso, dell’età, delle origini etniche, del credo religioso, dell’orientamento sessuale, delle opinioni politiche e delle condizioni personali, sociali ed economiche), in conformità con il diritto dell’Unione europea”. A me sembra pletorico essendo la materia già coperta efficacemente dal diritto europeo; l’art. 21 della Carta dei diritti è peraltro di applicazione diretta, secondo la migliore giurisprudenza della Corte di giustizia . E’ vero che le condizioni personali, sociali ed economiche non rientrano tra i fattori di rischio menzionate esplicitamente all’art. 21 della Carta ma la stessa elencazione ha un mero carattere esemplificativo e questi fattori ben possono essere ricompresi alla luce della giurisprudenza della Corte di giustizia che utilizza unitariamente l’art. 21 e l’art. 20 sulla parità di trattamento. Questo rischio di discriminazione è sottolineato peraltro già nel regolamento. In ogni caso la norma, dopo l’elenco dei fattori di rischio, aggiunge “in conformità con il diritto” UE: una sorta di confessione di inutilità della prescrizione? ( ).
Più interessante sembra il secondo comma dell’art. 10 che conferma le disposizioni del decreto trasparenza sulle informazioni preventive: “l’utilizzo dell’intelligenza artificiale in ambito lavorativo deve essere sicuro, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali. Il datore di lavoro o il committente è tenuto a informare il lavoratore dell’utilizzo dell’intelligenza artificiale nei casi e con le modalità di cui all’articolo 1-bis del decreto legislativo 26 maggio 1997, n. 152” (che certamente è una norma di miglior favore ex art. 2 AI Act).
L’idea di un sistema unitario per tutti i trattamenti “ tecnologici” in sé è buona e potrebbe essere sviluppata cercando una coerenza tra l’ambito di applicazione oggettivo del AI Act, della direttiva piattaforme e dell’art. 1 bis che sono diversi tra di loro ( ) rimuovendo anche da quest’ultima norma i due aggettivi ”integralmente” e “ rilevanti” sconosciuti alle fonti sovra-nazionali. Ancora la norma sul “segreto industriale o commerciale ” opponibile agli obblighi informativi (di cui al citato art. 1 bis) non risulterebbe coerente né con l’AI Act, né con la direttiva piattaforme che non consentono un limite di ordine generale non sottoposto ad un controllo di proporzionalità: un caso classico di bilanciamento tra diritti in conflitto ex art. 52 della Carta dei diritti, che chiama in causa il principio di proporzionalità ignorato dalla norma interna. Nella prospettiva del raccordo tra fonti il rifiuto di informazioni non potrebbe riguardare quelle stabilite al comma 1 dell’art. 1 bis ed ai punti 1 e 2 del secondo comma che non sembrano mettere in gioco necessariamente la tutela del segreto industriale e commerciale.
Anche la sfera soggettiva, come già accennato, potrebbe essere risolta in modo unitario integrando anche gli autonomi in via generale negli obblighi informativi.
Tornando all’art. 2.11 dell’AI Act per come è formulato la sua clausola permissiva in favore della contrattazione collettiva ”il presente regolamento non osta a che gli Stati membri incoraggino o consentano l'applicazione di contratti collettivi più favorevoli ai lavoratori“ sembra voler richiedere una esplicita disposizione legislativa interna (“incoraggino o consentano”) essendo questo ruolo integrativo di un regolamento che sarà fra due anni di applicazione immediata in ogni sua parte. Su questa inclusione delle parti sociali (sulla quale insiste molto la nostra dottrina ( ) direi in modo corale) non si dice nulla nel d.d.l. governativo . Non si offre una norma di selezione tra sindacati (né l’individuazione di un livello pertinente), né si capisce se potrebbero essere legittimati anche i contratti degli autonomi (nell’AI sembrerebbero contratti dei lavoratori pleno iure) né viene prevista un’attività anche solo promozionale a livello istituzionale interno ( l’Osservatorio istituto all’art. 11 del d.d.l. non si occupa del problema della contrattazione). Sarebbe, ci pare, opportuno attribuire questo compito integrativo del regolamento alle sole OOSS più rappresentative sul piano nazionale e conferire al Cnel un’attività di discussione e confronto tra parti sociali sul tema (rientrerebbe perfettamente tra i suoi ambiti istituzionali). La figura di rappresentanti dei lavoratori e dei collaboratori aziendali per la sicurezza digitale ed algoritmica aiuterebbe il quadro d’insieme ( ), potendo poi questi far parte di qualche struttura comune nazionale sulla base di una rappresentatività dimostrata. La legge potrebbe promuovere la contrattazione collettiva per i formatori digitali, gli esperti sindacali, ed i responsabili delle strutture per il controllo di una corretta implementazione del diritto UE. Si è anche proposta anche una sorta di azione collettiva ( e di azione individuale esercitabile anche tramite OOSS) contro l’abuso di sistemi decisionali automatici o di indebita utilizzazione dell’AI. Ancora si discute, soprattutto negli ambienti sindacali, se all’informazione vada collegato il correlato diritto alla consultazione (anche periodica) tra parti sociali affiancate da esperti. Insomma ci sarebbe moltissimo da aggiungere sul tema del ruolo del dialogo sociale che il d.d.l. ignora in toto.
6.Conclusioni
Il complesso regolativo messo in campo dall’Unione sul fronte dell’AI gioca la sua effettività in una sfera che precede o segue l’utilizzazione di questa nell’attività lavorativa, nel rapporto tra imprese ed Enti autorizzativi, controllanti, di verifica (sovranazionali e nazionali). Le garanzie per proteggere i lavoratori in corso di rapporto alla fine si riducono agli artt. 26 e 86 (per il settore pubblico il 27); il dialogo sociale è praticamente ignorato: gli stati nazionali potranno ( e dovranno) fare molto riadattando anche i loro sistemi interni di trasparenza e di negoziazione endo-sindacale in materia. Tuttavia la pubblicanda direttiva sulle piattaforme ( ) appresta garanzie molto più incisive sul fronte delle emergenti tecnologie nel pieno coinvolgimento delle OOSS e nella protezione universalistica di tutti coloro che contribuiscono alla ricchezza sociale e che sono esposti a tali tecnologie. Questa più esigente normativa potrebbe in molti casi essere estesa al campo dell’AI ai sensi dello stesso Ai Act (art. 2) e quindi portare ad uno statuto “ dei diritti tecnologici” più idoneo ad affrontare la transizione in atto. Il sistema di protezioni potrebbe- almeno nel medio periodo- rimanere così un argine importante verso (nuovi) abusi e discriminazioni. Ma sul piano delle libertà e delle scelte individuali e collettive (libertà positiva), sugli interrogativi sul “ futuro del lavoro” posti nel dibattito sulla “riduzione d’orario generalizzata o sul “reddito di base” come presidio dell’autodeterminazione nella prossima “ società della macchine intelligenti” che ha accompagnato e seguito le prepotenti trasformazioni degli ultimi anni, mi pare che manchi una risposta davvero forte e persuasiva. Per questo, forse, l’opinione pubblica rimane fortemente inquieta e pessimista nonostante il diluvio di norme di diverso livello.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.