TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA

1. Quando abbiamo iniziato a progettare questo convegno nel mese di ottobre 2023 ci siamo proposti di affrontare la questione del rapporto tra lavoro e Artificial Intelligence (da ora AI) con un approccio multidisciplinare. Ma mentre gli scienziati dell’IIT di Genova (Alessio del Bue, Daniele Pucci, Lorenzo Natale) erano piuttosto avanti nelle loro ricerche ed erano già in grado di illustrare gli scenari prevedibili di medio e lungo termine sulla interazione tra intelligenza artificiale e lavoro noi giuristi, invece, avevamo a quel tempo poco materiale normativo a disposizione: il regolamento privacy (GDPR n. 679/2016) che tutela i dati personali ma non è sufficiente a proteggere le persone dall’uso di sistemi automatizzati; l’art. 1 del d.lgs. n. 152/1997 introdotto dal d.lgs. n. 104/2022 che prevede degli obblighi d’informazione per lavoratori e sindacati sull’utilizzo di sistemi di monitoraggio integralmente (dal 2023) automatizzati ma che, però, ha un ambito di applicazione soggettivo e oggettivo assai limitato (ne restano esclusi sistemi decisionali o di monitoraggio automatizzati che incidono, in qualunque modo, sulla persona o sulla prestazione di ogni persona che svolge un’attività lavorativa prevalentemente personale); la normativa sulla salute e sicurezza dei lavoratori (d.lgs. n. 81/2008) che per quanto avanzata, non obbliga il datore di lavoro e il committente ad adottare le misure necessarie per prevenire i rischi generati dai sistemi automatizzati; l’apparato normativo, soprattutto di matrice europea, del diritto antidiscriminatorio, che però non è ancora focalizzato sui rischi specifici della discriminazione determinata dall’algoritmo. Nello stesso periodo era in gestazione la proposta di direttiva sul lavoro mediante piattaforme digitali e il regolamento europeo sull’intelligenza artificiale, ma si trattava, appunto, ancora soltanto di progetti.
Abbiamo pensato quindi, di approfondire alcune criticità collegate all’introduzione di sistemi di AI nel rapporto di lavoro sul piano della definizione della fattispecie e dei rischi legati alla errata qualificazione della situazione occupazionale (Razzolini - Ichino); all’uso di sistemi decisionali e di monitoraggio automatizzati sulla selezione del personale e sulla assegnazione dei compiti (Peruzzi - Filì); all’uso dell’AI sul controllo e sulla esecuzione della prestazione (Sartori - Gragnoli); all’impatto dell’uso di sistemi di AI sulla salute e sulla sicurezza dei lavoratori (Tardiola - Piglialarmi); al ruolo che le parti sociali dovranno esercitare per difendere il lavoro e i lavoratori dai nuovi sistemi di gestione, monitoraggio e controllo della prestazione di lavoro ma anche nella valorizzazione delle opportunità recate da tali sistemi (Massagli - De Palma - D’Alò - Palombella); all’uso dell’ AI per determinare la parte variabile della retribuzione (Calderara).
2. È poi accaduto che l’8 marzo di questo anno, sotto la presidenza danese, il Consiglio UE ha trovato l’accordo di compromesso (il terzo) sulla proposta di direttiva relativa al miglioramento delle condizioni di lavoro mediante piattaforme digitali (da ora la direttiva). La direttiva (considerando 17) intende perseguire due obiettivi: migliorare le condizioni di lavoro dei lavoratori delle piattaforme digitali (workers) e proteggere i dati personali delle persone (persons) che svolgono un lavoro mediante piattaforme digitali. Questi obiettivi sono perseguiti contemporaneamente, si rafforzano reciprocamente e sono indissolubilmente legati, nel senso che l'uno non è secondario rispetto all'altro.
Il testo presenta due aspetti assai rilevanti: facilitare la qualificazione dei lavoratori delle piattaforme come lavoratori subordinati utilizzando la tecnica della presunzione di subordinazione (art. 5). E regolare il c.d. algorithmic managment (art. 6), prevedendo anche dei diritti d’informazione e consultazione a favore dei lavoratori e dei loro rappresentanti prima dell’introduzione di sistemi decisionali o di monitoraggio automatizzati o delle modifiche della loro modalità di utilizzo (art. 13 dir. e art 26. 7 reg). La doppia base giuridica (art. 153, par. 1, lett. b e art. 16 TFUE), consente di migliorare le condizioni di lavoro dei lavoratori dipendenti e migliorare la protezione delle persone fisiche per quanto riguarda il trattamento dei loro dati personali, aumentando la trasparenza, l'equità e la responsabilità delle procedure di gestione algoritmica nel lavoro mediante piattaforme digitali (v. infra).
Sulla corretta qualificazione del rapporto di lavoro l’art. 5 introduce una presunzione semplice di subordinazione affidando agli Stati membri il compito di definire la nozione di lavoratore e i fatti e le circostanze necessarie per far scattare la presunzione di subordinazione. È questa la parte della direttiva che ha subìto una drastica riformulazione con l’abolizione dei cinque indici presuntivi indicati nella proposta della Commissione. La disposizione va letta insieme al considerando n. 7 nel quale si dà atto dei problemi sorti in numerosi S.M. circa l’errata classificazione dei lavoratori nei settori in cui le piattaforme di lavoro digitali esercitano un certo livello di direzione o controllo. Sovente le piattaforme classificano le persone che lavorano mediante le stesse come lavoratori autonomi o "contraenti indipendenti". Tuttavia molti organi giurisdizionali hanno rilevato che le piattaforme digitali esercitano di fatto un potere di direzione e controllo su tali persone, spesso integrandole nelle loro principali attività commerciali e hanno riclassificato i presunti lavoratori autonomi come lavoratori subordinati. La presunzione, per come è ora riformulata, poggia sia su criteri nazionali sia sulla giurisprudenza della Corte di giustizia (considerando 18 e 26).
Questo non esclude che in futuro i criteri per far scattare la presunzione potranno essere elaborati con maggiore precisione dalla stessa Corte di giustizia in relazione alla trasposizione della direttiva al fine di garantirne l’effetto utile. La presunzione è confutabile da parte delle piattaforme che devono dimostrare l’assenza di un potere di organizzazione, di vincoli di orario o di un controllo penetrante sulla prestazione. Gli Stati dovranno fornire orientamenti sulla corretta attuazione delle disposizioni contenute nella direttiva considerato che, per alcuni Paesi, il percorso per dare seguito alla norma potrebbe risultare più complicato che per altri. Se il lavoratore riesce a dimostrare di essere un finto lavoratore autonomo (considerando 29), ai lavoratori delle piattaforme digitali dovranno essere garantiti gli stessi diritti degli altri lavoratori conformemente all’ordinamento dell'Unione, all’ordinamento e ai contratti collettivi degli Stati Membri (considerando 26). La piattaforma dovrà essere qualificata come datore di lavoro, anche se si avvale di intermediari (interposti) che instaurano un rapporto contrattuale con la piattaforma di lavoro digitale e con la persona che svolge un lavoro mediante piattaforma (art. 3). La direttiva stabilisce esplicitamente che la presunzione deve facilitare l'accesso alla riclassificazione e che la procedura non può aumentare gli oneri che incombono sulle persone che lavorano tramite piattaforme o sui loro rappresentanti nei procedimenti di riclassificazione (art. 5). Salvo prova contraria, le piattaforme sono equiparate ai datori di lavoro per i lavoratori gestiti e controllati mediante un sistema automatizzato.
3. Il 13 marzo di quest’anno il Parlamento Europeo ha approvato anche la Proposta di regolamento che stabilisce le regole di armonizzazione sull’utilizzo dell’AI. Il regolamento (c.d. AI Act) introduce limiti sull’utilizzo di strumenti ad alto rischio in ambito lavorativo, nella formazione e nell’istruzione (allegato III); esclude l’utilizzo di alcuni sistemi automatizzati nei luoghi di lavoro o d’istruzione (art. 5, lett. f); disciplina il controllo umano, riconosce alla persona la possibilità di “chiedere trasparenza” (oltre all’informativa sulla privacy – GDPR: art. 5 e 50 reg.), ma non prevede la contrattazione come strumento per regolare processi ed effetti.
Anche se si tratta di un atto avente una efficacia immediata negli ordinamenti interni esso, tuttavia, non osta a che “gli stati membri mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all’uso di sistemi di AI da parte dei datori di lavoro, o incoraggino o consentano l’applicazione di contratti collettivi più favorevoli ai lavoratori” (art. 2, c. 11 reg.). Il regolamento non introduce nuovi diritti per i lavoratori ma, partendo dalla consapevolezza che i sistemi di AI sono basati sul rischio, introduce regole vincolanti che si adattano alla portata e alla intensità dei rischi che possono essere generati dall’AI (considerando 26 reg.) prevedendo, tra l’altro, degli obblighi di trasparenza per i fornitori e i deployer, ossia chi utilizza un sistema di AI (art. 3, n. 4). Inoltre il regolamento reca una definizione assai ampia dei sistemi di AI, riferiti (art. 3.1.) a: “… sistemi progettati per funzionare con livelli di autonomia variabili e che possono presentare adattabilità dopo la diffusione e capaci di prendere decisioni che possono influenzare ambienti fisici o virtuali”.

4. Il regolamento (considerando 20, art. 2, n. 56, art. 4) prevede che i fornitori, i deployer e le persone interessate acquisiscano consapevolezza delle opportunità, dei rischi e dei possibili danni recati dall’uso di sistemi di AI. Esso dispone che i fornitori e i deployer adottino misure per garantire un livello sufficiente di alfabetizzazione del loro personale e di qualsiasi altra persona che si occupi del funzionamento e dell’utilizzo dei sistemi di AI per loro conto. Le nozioni necessarie da apprendere, possono variare in relazione al contesto e possono includere la comprensione della corretta applicazione degli elementi tecnici durante la fase di sviluppo del sistema di AI, le misure da applicare durante il suo utilizzo, le modalità adeguate a interpretarne l'output e, nel caso delle persone interessate, le conoscenze necessarie per comprendere in che modo le decisioni adottate con l'assistenza dell'IA incideranno su di esse.
5. Sappiamo che tanti posti di lavoro saranno creati dalla tecnologia e potranno essere occupati solo con una qualificazione o riqualificazione che consenta ai lavoratori di interagire con le nuove tecnologie. E sappiamo anche che le tecnologie sono in grado di manipolare le preferenze incidendo, per esempio sulla selezione del personale o sulle convinzioni del managment al punto da indurre o indirizzare il compimento di determinate scelte, come quella di sospendere un rapporto di lavoro o chiudere un account. La diffusione dei sistemi di AI nell'istruzione è importante per promuovere un'istruzione e una formazione digitali di alta qualità e per consentire a tutti i discenti e gli insegnanti di acquisire e condividere le competenze e le abilità digitali necessarie, compresa l'alfabetizzazione mediatica e il pensiero critico per partecipare attivamente all'economia, alla società e ai processi democratici. Per questo motivo i sistemi di AI utilizzati nell'istruzione o nella formazione professionale sono classificati ad alto rischio (allegato III). Vi rientrano, in particolare, i sistemi automatizzati per determinare l'accesso o l'ammissione ai corsi, per assegnare persone agli istituti o ai programmi di istruzione e formazione professionale a tutti i livelli, per valutare i risultati dell'apprendimento delle persone, per valutare il livello di istruzione adeguato a una persona e influenzare materialmente il livello di istruzione e formazione che le persone riceveranno o a cui potranno avere accesso o per monitorare e rilevare comportamenti vietati degli studenti durante le prove. Questi sistemi, poiché possono determinare il percorso d'istruzione professionale della vita di una persona e quindi incidere sulla sua capacità di garantire il proprio sostentamento o il mantenimento del suo posto di lavoro devono essere sottoposti a particolari procedure. Se progettati e utilizzati in modo inadeguato, tali sistemi possono essere particolarmente intrusivi, possono violare il diritto all'istruzione e alla formazione, nonché il diritto alla non discriminazione, o perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale.

6. Anche i sistemi di AI utilizzati nel settore dell'occupazione, nella gestione dei lavoratori e nell'accesso al lavoro autonomo sono considerati ad alto rischio (allegato III). Si tratta, in particolare, dei sistemi per l'assunzione e la selezione delle persone, per le decisioni riguardanti le condizioni del rapporto di lavoro, la promozione e la cessazione dei rapporti di lavoro, per l'assegnazione dei compiti sulla base dei comportamenti individuali, dei tratti o delle caratteristiche personali e per il monitoraggio o la valutazione delle persone che lavorano. Questi sistemi possono avere un impatto significativo sul futuro di chi vive del proprio lavoro in termini di prospettive di carriera e di diritti della persona. Anche i sistemi decisionali automatizzati utilizzati per la gestione del rapporto di lavoro devono evitare che si possano perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale. I sistemi di AI utilizzati per monitorare le prestazioni e il comportamento di tali persone possono inoltre comprometterne i diritti fondamentali in materia di protezione dei dati e vita privata. È pertanto necessario predisporre sistemi di gestione idonei a prevenire questi rischi.

7. La direttiva vieta che i sistemi decisionali o di monitoraggio automatizzati trattino dati personali relativi allo stato emotivo o psicologico. Il divieto è esteso alle conversazioni private; alla raccolta di dati personali al di fuori del caso in cui la prestazione sia svolta mediante piattaforme digitali; ai dati personali relativi a diritti fondamentali, compresi i diritti sindacali di associazione, di negoziazione, di azioni collettive o il diritto di informazione e consultazione. Essa vieta, in particolare che vengano trattati dati personali relativi all’origine razziale, o etnica, allo status di migrante, alle opinioni politiche, alle convinzioni religiose o filosofiche, alla disabilità, allo stato di salute, alla sieropositività, all’orientamento sessuale, all’adesione a un sindacato. Le piattaforme inoltre non devono trattare i dati biometrici delle persone che svolgono un lavoro tramite piattaforma digitale (per es. espressioni facciali, i movimenti, il battito cardiaco, la voce, l’andatura) ai fini dell’identificazione ossia per stabilire l’identità di una persona confrontando i dati biometrici con quelli di altre persone memorizzati in una banca dati (identificazione c.d. “uno a molti”). È invece consentita la verifica biometrica “uno a uno” ossia il confronto dei dati biometrici personali con dati già forniti in precedenza dalla stessa persona.
Questi divieti si applicano nei confronti di tutte le persone che svolgono un lavoro mediante piattaforme digitali sin dalla procedura di assunzione o di selezione, purché si utilizzino sistemi decisionali o di monitoraggio automatizzati in grado di prendere delle decisioni che incidono “in qualche modo” sulle suddette persone (art. 7).

8. Ogni sistema di AI, compresi gli algoritmi in grado di prendere decisioni, tratta dati personali con elevati rischi per i diritti e le libertà delle persone tracciate e monitorate. Conformemente a quanto già stabilito dal Regolamento europeo 2016/976, la direttiva (art 8) prevede che per poter utilizzare algoritmi in grado di prendere delle decisioni sulla gestione e organizzazione del lavoro è necessaria una preventiva valutazione d’impatto sulla protezione dei dati personali previo parere preventivo delle persone che svolgono un lavoro mediante piattaforme digitali e dei loro rappresentanti. Vale a questo riguardo quanto è già disposto dall’art. 35 del regolamento 2016/697: le piattaforme sono considerate titolari del trattamento dei dati personali e la valutazione d’impatto deve avvenire ex ante previa consultazione con il responsabile della protezione dei dati, qualora ne esista uno, e parere preventivo delle persone impattate dal sistema e dai loro rappresentanti. Le piattaforme devono fornire la valutazione d’impatto ai rappresentanti dei lavoratori (art. 8, par. 2) che dovranno essere opportunamente consultati con spirito di cooperazione e nel rispetto dei loro diritti e obblighi reciproci, tenendosi conto sia degli interessi dell'impresa o azienda sia dei lavoratori.
L’obbligo della valutazione d’impatto è già previsto nel nostro ordinamento (art. 1 - bis, d.lgs. n. 152/1997 cit.) ma dovrà essere opportunamente rafforzato con ulteriori e specifici obblighi di informazione e consultazione preventiva previsti sia dal regolamento sia dalla direttiva.

9. Sono oggetto di una valutazione d’impatto biennale anche le decisioni prese o sostenute dall’algoritmo utilizzato dalla piattaforma digitale incluse le decisioni prese sulle condizioni di lavoro e sulla parità d trattamento (art. 10). I contenuti della valutazione d’impatto biennale devono essere trasmesse ai rappresentanti dei lavoratori delle piattaforme digitali, alle persone che vi lavorano, alle autorità competenti su loro richiesta (art. 10.4) e alle persone che partecipano a una procedura di assunzione o selezione (art. 10.5).
10. Ogni persona deve sapere se la piattaforma usa o no sistemi automatizzati (art. 9 dir.). Partendo dalla consapevolezza che i sistemi di monitoraggio automatizzati posso prendere decisioni che incidono sui lavoratori o sulle persone che svolgono un lavoro mediante piattaforme digitali, la direttiva introduce un catalogo di informazioni che i singoli lavoratori, le persone che lavorando mediante piattaforme, i rappresentanti dei lavoratori e le autorità devono poter avere sulle caratteristiche, sul funzionamento, sulle modifiche e sulle categorie di dati che i sistemi sono in grado di processare. Le informazioni devono essere chiare e rendere consapevoli le persone che stanno interagendo con un sistema automatizzato capace di produrre decisioni in ordine alle condizioni di lavoro, all’ accesso agli incarichi di lavoro, ai guadagni, alla salute e la sicurezza, all’orario di lavoro, alla promozione, alla situazione contrattuale compresa la sospensione del rapporto di lavoro o la chiusura dell’account (art. 9 dir.). Le informazioni alle persone che svolgono un lavoro mediante piattaforme digitali devono essere date, al più tardi, il primo giorno di lavoro. Invece ai rappresentanti dei lavoratori, le informazioni devono essere fornite prima dell’uso o delle modifiche a detti sistemi. L’art. 9 implementa gli obblighi di informazione sull’uso dei sistemi automatizzati anche nei confronti di tutte le persone che partecipano a una procedura di assunzione o selezione (art. 9 par. 3 e 5). Anche le autorità competenti devono ricevere tutte le informazioni in qualsiasi momento su loro richiesta per poter svolgere le loro funzioni. Un obbligo di trasparenza analogo è previsto per il caso di utilizzo di sistemi di AI ad alto rischio (considerando 26 e art. 13 reg.). Sia i fornitori sia i deployer sono tenuti a informare le persone che stanno interagendo con sistemi di AI (art. 50 reg.). I deployer di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano le persone fisiche che vi sono esposte sul funzionamento del sistema e trattano i dati personali secondo le regole europee.
Va detto che il nostro ordinamento ha in parte già recepito alcune importanti indicazioni europee nell’art. 1 bis aggiunto al d.lgs. n. 152/1997 dal d.lgs. n. 104/2022 che però deve essere correttamente implementato.

11. Le piattaforme che fanno uso di sistemi decisionali automatizzati per la gestione e l’organizzazione del lavoro potrebbero non garantire al lavoratore un contatto diretto con un dirigente o un supervisore umano. In questi casi le piattaforme devono consentire la sorveglianza umana delle decisioni prese dal sistema e garantire ogni due anni una valutazione dell’impatto ex post delle decisioni prese dai sistemi decisionali sulle persone che lavorano tramite piattaforma. I rappresentanti sindacali dovrebbero essere coinvolti in questo processo di valutazione. Secondo il regolamento i deployer dovrebbero garantire che le persone alle quali è affidata l’attuazione delle istruzioni per l’uso e della sorveglianza umana sui sistemi ad alto rischio (allegato III del regolamento), dispongano delle competenze necessarie: in particolare di un adeguato livello di alfabetizzazione, formazione e autorità in materia di AI per svolgere adeguatamente i propri compiti (considerando 91, artt. 14 e 26. 2, reg.). Secondo la direttiva, invece, le piattaforme digitali dovrebbero dotarsi di persone qualificate e formate per garantire la sorveglianza umana, munite di sufficiente autorità per non accogliere le decisioni che non condividono (art. 10). Le stesse persone dovrebbero essere protette contro il licenziamento, le sanzioni disciplinari o altri trattamenti sfavorevoli conseguenti all’esercizio delle loro funzioni. Qualora dalla sorveglianza umana dovessero emergere rischi di discriminazione sul lavoro o la violazione dei diritti delle persone che svolgono lavoro tramite piattaforme digitali, le stesse piattaforme devono adottare le misure più adeguate a neutralizzarli, compresa la cessazione dell’utilizzo dei sistemi automatizzati.
In ogni caso il sistema decisionale non deve mai prendere decisioni che possono avere un grave impatto sulle persone, come la sospensione, il licenziamento o la chiusura dell’account della persona.

12. Al di là di queste ipotesi, ogni decisione automatizzata presa dal sistema deve poter essere contestata e le persone devono avere le spiegazioni richieste (art. 11; 86 reg.) sulle decisioni prese dal sistema anche tramite una persona di contatto, formata e competente, designata dalla piattaforma per discutere e chiarire i fatti posti alla base della decisione. Inoltre tutte le decisioni, soprattutto quelle che incidano sui potenziali guadagni, devono essere motivate per iscritto e devono poter essere riesaminate ed eventualmente rettificate entro due settimane (art. 11): salvo, in caso contrario, un adeguato risarcimento del danno. Sempre in caso di violazione dei diritti della persona la piattaforma modifica il sistema decisionale automatizzato o ne interrompe l’utilizzo per evitare che decisioni analoghe siano prese in futuro.

13. Assai opportuna è la norma dell’art. 12 della direttiva che integrando il sistema di protezione e prevenzione messo in atto dalla direttiva 89/931 impone per i soli lavoratori subordinati delle piattaforme digitali una valutazione dei rischi derivanti dai sistemi di monitoraggio o automatizzati per la sicurezza e la salute. La gestione algoritmica della prestazione di lavoro accresce il ritmo richiesto, riduce al minimo la discontinuità dei tempi di lavoro anche nelle prestazioni rese al di là del luogo e dell’orario di lavoro. La gestione algoritmica può essere fonte di stress e ansia e causare pressione sul prestatore di lavoro. La direttiva dispone pertanto che per attenuare i rischi sulla salute e la sicurezza dei lavoratori, le piattaforme devono preventivamente valutare i rischi di infortuni sul lavoro, i rischi psicosociali ed ergonomici, l’adeguatezza dei sistemi di prevenzione e protezione in relazione all’ambiente di lavoro. In relazione alla tutela della salute e sicurezza le piattaforme devono garantire il rispetto di obblighi di informazione, consultazione e una partecipazione effettiva dei lavoratori e dei loro rappresentanti muniti di adeguate competenze. Invece il regolamento introduce un principio di precauzione (artt. 9 e 10) sul funzionamento dei sistemi di AI obbligando il deployer ad adottare un sistema di gestione al fine di eliminare o ridurre i rischi su salute, sicurezza, diritti fondamentali e discriminazioni vietate. E introduce l’obbligo d’informare e consultare i lavoratori e i loro rappresentanti sulle misure adottate al fine di adempiere agli obblighi gravanti su datori di lavoro e committenti in materia di tutela della salute e della sicurezza dei lavoratori.

14. La direttiva riconosce il ruolo fondamentale delle rappresentanze dei lavoratori (art. 13). Richiamando la precedente direttiva 2002/14, essa dispone che le rappresentanze dei lavoratori devono essere informate e consultate. Essa anzi riconosce e promuove delle misure supplementari affinché siano resi effettivi i diritti d’informazione e consultazione data la complessità tecnica dei sistemi di gestione algoritmica. Nel caso del lavoro tramite piattaforme digitali l’informazione e la consultazione dei rappresentanti sindacali deve riguardare sia l’introduzione dei sistemi decisionali o di monitoraggio automatizzati sia le modifiche sostanziali al loro utilizzo. I rappresentanti dei lavoratori possono avvalersi di un esperto per esaminare le questioni oggetto d’informazione e consultazione. Tuttavia i costi dell’esperto sono a carico delle rappresentanze dei lavoratori, salvo il caso in cui la piattaforma abbia un numero di lavoratori superiore a 250 (art. 13).
In assenza di rappresentanze dei lavoratori è prevista una informazione diretta per quanto riguarda l’introduzione o la modifica sostanziale dei sistemi decisionali e di monitoraggio automatizzati (art. 14).
La direttiva estende i diritti collettivi a tutti i "rappresentanti dei lavoratori delle piattaforme digitali", compresi i lavoratori realmente autonomi che svolgono il loro lavoro tramite piattaforme digitali (art. 15). I diritti delle persone fisiche riguardano il trattamento dei dati personali nel contesto della gestione algoritmica, la trasparenza sul funzionamento dei sistemi, le limitazioni alla raccolta dei dati, il monitoraggio e il riesame umano delle decisioni che incidono sulle condizioni del lavoro e sulle occasioni di guadagno. Non si applicano alle persone fisiche gli obblighi sulla valutazione dei rischi su salute e sicurezza che riguardano i soli lavoratori subordinati.
Assai incisive sono le norme per la tutela dei diritti individuali.
L’art. 18 riconosce il diritto alle persone che lavorano mediante piattaforma digitale ad agire in giudizio al fine di ottenere un adeguato risarcimento del danno per la violazione dei diritti derivanti dalla direttiva. L’art. 19 della direttiva riconosce inoltre la legittimazione giudiziale attiva ai rappresentanti delle persone che svolgono lavoro tramite piattaforme digitali ad agire in giudizio per conto o a sostegno di una o più persone in caso di violazione degli obblighi nascenti dalla direttiva. Ciò al fine di agevolare l’azione in giudizio che altrimenti non sarebbe proposta dai singoli lavoratori o dalle singole persone a causa di ostacoli procedurali e finanziari o per timore di ritorsioni. Essa tutela i rappresentanti dei lavoratori da qualsiasi trattamento sfavorevole derivante da un reclamo presentato contro la piattaforma (art. 22) e protegge le persone fisiche contro il licenziamento o misure equivalenti, come la chiusura dell’account, per il caso che queste abbiano esercitato i diritti derivanti dalla direttiva, compreso il ricorso contro le piattaforme.
La direttiva (art. 25) promuove infine la contrattazione collettiva e incoraggia le parti sociali a dare attuazione alle norme relative alla corretta qualificazione del rapporto di lavoro e alla gestione algoritmica. Riconosce che i contratti collettivi possono stabilire norme per la tutela dei dati personali anche in deroga rispetto alle disposizioni su salute e sicurezza, diritti d’informazione e consultazione e sulla trasparenza dei dati.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.