TESTO INTEGRALE CON NOTE E BIBLIOGRAFIA

1. Introduzione

Negli ultimi anni, si è registrato un notevole aumento della ricerca sui prototipi di tecnologie di intelligenza artificiale (nel prosieguo: AI) destinate all’ambito occupazionale, insieme alla loro introduzione sul mercato e al loro utilizzo sul posto di lavoro.
Numerosi esempi illustrano questa tendenza, tra cui sistemi di robotica avanzata come robots collaborativi e intelligenti (cobots), dispositivi indossabili (wearables), esoscheletri (wearable robots o robots indossabili), realtà virtuale e aumentata integrata, ad esempio in wearables, AI-powered softwares (e.g., di riconoscimento vocale e facciale) installati su computers.
Le motivazioni che spingono i datori di lavoro ad introdurre tali tecnologie di AI nel luogo di lavoro sono molteplici, talvolta difficili da distinguere: automatizzare alcuni processi produttivi (e.g., tramite l’utilizzo di robots e cobots), selezionare più rapidamente candidati per un posto di lavoro (e.g., tramite tecnologie di riconoscimento delle emozioni che analizzano le espressioni del viso), monitorare la produttività, la prestazione e il comportamento dei lavoratori (e.g., con braccialetti elettronici o scanners), garantire la salute e la sicurezza sul luogo di lavoro (e.g., con esoscheletri), formare i lavoratori e dare istruzioni in tempo reale su come eseguire determinati compiti (e.g., con realtà virtuale e aumentata integrata in smart glasses).
Queste tecnologie offrono vari benefici. A tale proposito, una parte della dottrina e alcune organizzazioni in Europa hanno evidenziato come alcune di esse possano – o abbiano il potenziale di – contribuire alla protezione della salute e sicurezza dei lavoratori, e quindi alla prevenzione del rischio di malattie professionali e infortuni. Questo è un obbligo imposto ai datori di lavori sia dal sistema normativo della prevenzione in Europa, come ad esempio dagli articoli 5(1) e 6(1) della Direttiva 89/391/EEC, sia da legislazioni nazionali, come l’articolo 2087 del codice civile italiano.
Al riguardo, l’impiego di esoscheletri rappresenta un esempio di come tali tecnologie possano contribuire a mitigare i rischi ergonomici, specialmente per quanto riguarda l’insorgere di disturbi muscolo-scheletrici. In particolare, questi robots indossabili aumentano la capacità fisica del lavoratore, offrendo supporto durante i compiti più gravosi per il fisico, come il sollevamento manuale di carichi pesanti.
Al contempo, l’impiego di sistemi di AI comporta rischi per la salute fisica e mentale, così come per la sicurezza dai lavoratori. Tra questi, si annoverano i rischi legati all’interazione (fisica) uomo-macchina, come il pericolo di collisione, e i rischi psico-sociali derivanti dalla pressione di dover mantenere il passo con quanto ‘istruito’ dall’algoritmo. Questi sono rischi che, come accennato precedentemente, il datore di lavoro è tenuto a valutare prima dell’introduzione di una nuova tecnologia e a prevenire in conformità con la normativa europea e nazionale.
Inoltre, i sistemi di AI utilizzano algoritmi per analizzare una pletora di dati, molti dei quali sensibili (e.g., temperatura corporea, battito cardiaco, ritmi circadiani), raccolti, ad esempio, da sensori incorporati in wearables, droni ed esoscheletri attivi. L’introduzione di tali strumenti sul luogo di lavoro potrebbe quindi portare a violazioni di altri diritti fondamentali, come il diritto alla protezione dei dati personali disciplinato dal Regolamento generale sulla protezione dei dati 2016/679 (nel prosieguo: GDPR), o il diritto di non essere discriminato.
Ciò premesso, questo contributo intende esaminare se, e in che modo, la nuova regolazione europea sull’AI (nel prosieguo: AI Act) contribuisca all’obiettivo di tutelare la salute e sicurezza dei lavoratori, tenendo conto sia dei benefici che dei rischi derivanti dall’impiego di tecnologie di AI sul posto di lavoro.

2. Tecnologie di intelligenza artificiale e salute e sicurezza sul lavoro: una panoramica

Le tecnologie di AI attualmente impiegate sul posto di lavoro, o che potrebbero esserlo nel prossimo futuro, sono innumerevoli. Dato il rapido avanzamento tecnologico non è possibile fornire una lista conclusiva di tutte le tecnologie utilizzate in ambito occupazionale. Alcuni esempi verranno quindi riportati per illustrare il fenomeno.
Recentemente, l’Agenzia Europea per la sicurezza e la salute sul lavoro (nel prosieguo: EU-OSHA) ha pubblicato studi che mettono in evidenzia l’introduzione di sistemi avanzati di robotica in vari settori industriali, come quello manufatturiero e automobilistico, principalmente come strumenti finalizzati a migliorare la salute e sicurezza sul posto di lavoro.
I cobots, ad esempio, sono in grado di automatizzare diversi processi produttivi, come il sollevamento e lo spostamento di carichi pesanti. Ciò contribuisce ad aumentare la produttività aziendale, fornendo contemporaneamente supporto ai lavoratori nei compiti più pericolosi, ripetitivi, e monotoni. Questo, tuttavia, non avviene senza creare potenziali rischi per l’integrità fisica dei lavoratori e per la loro salute mentale.
Altri dispositivi di robotica avanzata comprendono aeromobili senza equipaggio (i c.d. droni) e veicoli/robots terrestri senza pilota, noti come unmanned ground vehicles (UGV). Ad esempio, i droni, dotati di sensori di visione, vengono impiegati come dispositivi di monitoraggio e ispezione in siti industriali pericolosi, evitando così che i lavoratori siano esposti a situazioni rischiose. Allo stesso tempo, però, presentano potenziali rischi sia per la salute fisica (e.g., rischio di collisione, rumore) che mentale (e.g., stress) della forza lavoro, oltre a potenziali violazioni della privacy.
Inoltre, vi sono diversi esempi di wearables che sono impiegati per monitorare la produttività, la prestazione e il comportamento dei lavoratori (e.g., braccialetti e guanti elettronici che indirizzano il lavoratore da uno scaffale all’altro di un magazzino), ma anche per salvaguardarne la salute e sicurezza sul lavoro (e.g., elmetti intelligenti che monitorano la fatica di un operatore di macchinari pesanti). Questi dispositivi possono essere indossati dal lavoratore a contatto diretto con il corpo o sui vestiti (e.g., smartwatches, cappelli e caschi intelligenti, dosimetri), impiantati sotto la cute (e.g., micro-chips), ingeriti (e.g., pillole elettroniche), aderiti/tatuati (e.g., tatuaggi smart). In aggiunta, ci sono anche abiti e accessori intelligenti sensorizzati (smart wearable garment), i quali, sebbene siano ancora in una fase iniziale di ricerca e diffusione, sono sempre più oggetto di studio per i loro potenziali vantaggi in ambito occupazionale.
Attraverso una serie di sensori integrati, i wearables sono in grado di rilevare e raccogliere in maniera continua e in tempo reale diversi parametri relativi al lavoratore, come la postura (dati bio-meccanici), la posizione (GPS) e la condizione di salute (dati fisiologici come la frequenza cardiaca e respiratoria, la sudorazione, la temperatura corporea, ecc.). Per di più, possono raccogliere informazioni sull’ambiente di lavoro, ad esempio fattori ambientali fisici, come la temperatura ed il livello di umidità nel luogo di lavoro, e fattori chimici, come la concentrazione nell’aria di sostanze pericolose (anidride carbonica, ammoniaca, ecc.). L’analisi algoritmica di questi dati contribuisce a – o quantomeno presenta il potenziale di – proteggere i lavoratori da rischi lavoro-correlati come le patologie da calore (e.g., stress termico), e l’insorgere di alcuni tipi di tumori. Al contempo, però, i rischi per la stessa salute (mentale) dei lavoratori, i quali si trovano monitorati in modo continuativo, e spesso in tempo reale, non sono da trascurare.
A queste tecnologie si aggiunge la realtà virtuale e aumentata, incorporata, ad esempio, in occhiali, caschi e visori intelligenti. Questa viene utilizzata per diverse applicazioni, tra cui la formazione immersiva e per allertare i lavoratori della presenza di macchinari e attrezzature pericolose nelle vicinanze. Ancora, AI-powered softwares installati in computer possono individuare i lavoratori a rischio di specifiche malattie professionali (come, ad esempio, il disturbo post traumatico da stress) mediante l’utilizzo di algoritmi di text mining. Infine, gli esoscheletri attivi, pur presentando dei rischi come il malfunzionamento, forniscono supporto ai lavoratori nei movimenti manuali di carichi, riducendo così il rischio di disturbi muscolo-scheletrici. In particolare, questi wearable robots, che possono essere applicati nella parte superiore, inferiore o sull’intero corpo, possono essere muniti di una vasta gamma di sensori in grado di rilevare diversi parametri, inclusi quelli fisiologici, i quali vengono successivamente analizzati tramite applicazioni di AI.

3. Pratiche proibite e pratiche ad alto rischio nel contesto di lavoro

L’AI Act si propone di armonizzazione le regole sullo sviluppo, immissione sul mercato Europeo, messa in servizio, e utilizzo di sistemi di AI che potrebbero avere un impatto sulla salute e sicurezza delle persone fisiche, nonché dei loro diritti fondamentali, così come sanciti dalla Carta dei Diritti Fondamentali dell’Unione Europea.
Per raggiungere questo obiettivo, questa normativa adotta un approccio basato sul rischio: rischio inaccettabile, rischio alto, rischio limitato, rischio minimo o nullo. In base alla categoria di rischio, vengono poi definiti i diversi obblighi imposti ai partecipanti lungo la ‘catena del valore’ dell’IA, tra cui fornitori e deployers.
Nel contesto lavorativo, è possibile individuare principalmente due categorie di sistemi di AI: i sistemi di riconoscimento delle emozioni e i sistemi impiegati nell’ambito dell’“Occupazione, gestione dei lavoratori e accesso al lavoro autonomo”.
La questione sorge su come la normativa europea sull’AI abbia regolamentato tali categorie, mantenendo o meno fede all’obiettivo di elevare il livello di protezione della salute e sicurezza e il rispetto dei diritti fondamentali prima che alcune tecnologie di AI siano introdotte e distribuite nel mercato europeo, e quando vengono utilizzate da deployers, come i datori di lavoro.

4. Sistemi di riconoscimento delle emozioni e salute e sicurezza sul lavoro

L’Articolo 3(39) dell’AI Act definisce un sistema di riconoscimento delle emozioni come “un sistema di IA finalizzato all’identificazione o all’inferenza di emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici”.
In particolare, i sistemi di AI di riconoscimento delle emozioni permettono di interpretare e classificare lo stato emotivo (e.g., felicità, tristezza, rabbia) e le condizioni/stati mentali (e.g., livello di attenzione/distrazione) di una persona analizzando algoritmicamente dati relativi alle sue caratteristiche fisiche (come l’impronta digitale, la fisionomia, la conformazione dell’iride e della retina) e comportamentali (come il tipo di andatura, il tipo di battitura sulla tastiera di un computer, l’emissione della voce), o i suoi parametri fisiologici (come l’andamento del battito cardiaco, la frequenza respiratoria, la risposta galvanica della pelle).
Nonostante la loro attendibilità sia ancora molto dibattuta, la ricerca sulle opportunità e potenzialità presentate dall’utilizzo di sistemi di riconoscimento delle emozioni sta avanzando rapidamente.
In questo contesto, tecnologie di riconoscimento facciale e di analisi del tono di voce hanno trovato applicazione in vari settori, come nel campo medico, per identificare lo stato emotivo di una persona durante una terapia psicologica, o per riconoscere la depressione post-partum.
In ambito occupazionale, sono diversi gli esempi di sistemi di AI (e.g., analisi delle espressioni del viso tramite computer vision o del tono di voce) che sono stati sperimentati come strumento di rilevamento delle emozioni dei lavoratori, e/o che attualmente sono oggetto di ricerca.
Queste tecnologie possono essere impiegate come strumento di algorithmic management (e.g., in fase di selezione e valutazione del personale e per monitorare il livello di produttività) e nell’ambito della salute e sicurezza dei lavoratori, come ad esempio per identificare lo stress da lavoro-correlato. Per di più, alcuni sistemi sperimentati in campo medico potrebbero anche essere ‘trapiantati’ nell’ambito della salute e sicurezza sul posto di lavoro, come ad esempio l’analisi algoritmica del tono di voce dei lavoratori per riconoscerne lo stato emotivo ed identificare segnali di burnout or stress lavoro-correlato.
L’impiego di questo tipo di tecnologie di AI sul posto di lavoro ha sollevato numerose critiche a causa della loro invasività e delle potenziali ripercussioni sul rispetto dei diritti fondamentali dei lavoratori, tra cui la salute e sicurezza, nonché, in apicibus, il diritto alla dignità umana. Gli esempi di situazioni in cui queste tecnologie possano portare benefici ai lavoratori sono rari. La versione finale dell’AI Act così come approvata dal Parlamento Europeo il 13 marzo 2024 sembra riconoscere l’impatto significativo derivante da tali sistemi di AI usati in un contesto di lavoro. In particolare, la regolazione europea adotta una posizione decisa in merito, vietandone l’immissione sul mercato, la messa in servizio e l’utilizzo, con una eccezione che verrà esaminata in seguito. Tale approccio risulta congruente con gli obiettivi del Regolamento, volti a preservare la salute e la sicurezza delle persone, oltre a garantire il rispetto dei diritti fondamentali sanciti dalla Carta dei Diritti Fondamentali dell’Unione Europea, il cui Articolo 31 sottolinea il diritto di “[o]gni lavoratore (...) a condizioni di lavoro sane, sicure e dignitose”.
Alla luce di questa proibizione, ad esempio, braccialetti elettronici and badges già sperimentati per misurare le condizioni emotive di dipendenti e valutare la loro produttività non possono essere introdotti nel mercato Europeo. Ciò si applica anche a sistemi di AI attualmente in fase di ricerca che mirano a monitorare il comportamento (come l’eye tracking) e i parametri fisiologici (come l’attività elettrica cerebrale) dei lavoratori per valutarne le condizioni mentali (e.g., se il dipendente è attento) e quindi misurarne la produttività.
Questa posizione nei confronti dell’utilizzo di sistemi di riconoscimento delle emozioni sul luogo di lavoro è positiva e tutt’altro che scontata.
Infatti, la proposta di Regolamento della Commissione, inizialmente, non aveva affrontato in modo specifico questo tema, annoverando solo in modo generico i sistemi di riconoscimento delle emozioni tra quelli a rischio limitato, con obblighi di trasparenza imposti agli utenti, ed includendo nella categoria ad ‘alto rischio’ solo quelli utilizzati per attività di contrasto.
Nell’orientamento generale, il Consiglio dell’Unione Europea si era allineato alla posizione della Commissione. Tale approccio, tuttavia, ha suscitato opposizione da parte di varie organizzazioni che hanno manifestato preoccupazione per l’esclusione di questa tecnologia dalla lista di pratiche di AI proibite. Nel 2023 il Parlamento Europeo ha quindi successivamente proposto l’inclusione di tali sistemi di AI nella lista di sistemi proibiti dall’Articolo 5, quando il loro impiego è previsto sul posto di lavoro.
Detto ciò, nella versione finale del testo approvata dal Parlamento Europeo il 13 marzo 2024 vi sarebbe un’eccezione alla proibizione: motivi di sicurezza. L’esempio riportato è quello di sistemi mirati a rilevare la stanchezza di piloti o conducenti professionisti per prevenire incidenti. Il considerando no. 18 infatti esclude dalla definizione di sistemi di riconoscimento delle emozioni i sistemi di AI che permettono di identificare condizioni fische come l’affaticamento e il dolore. Cosa ricomprenda ‘motivi di sicurezza’ non è stato definito e rimane, come già prontamente sottolineato, una lacuna nel Regolamento. Con il termine sicurezza, infatti, si potrebbe far riferimento alla sicurezza dei lavoratori sul posto di lavoro per prevenire incidenti (non) fatali (si pensi, ad esempio, ad un pilota estremamente affaticato) o più in generale alla sicurezza di altre persone fisiche (si pensi, ad esempio, ai passeggeri di un aereo messi a rischio da un pilota che mostra segni di stanchezza).
Quest’eccezione potrebbe far strada a sistemi di AI in grado di identificare e valutare alcuni rischi per la salute e sicurezza dei lavoratori, contribuendo così a prevenire infortuni e incidenti. Ciò si allinea con il duty of care del datore di lavoro di garantire un ambiente di lavoro sano e sicuro. Un esempio in merito potrebbe essere rappresentato dalle tecnologie di AI che monitorano la fatica, tra cui le brain sensing technologies, come ad esempio i caschi intelligenti. Questi dispositivi, attraverso algoritmi, analizzano l’attività elettrica cerebrale di un lavoratore, ad esempio un operatore di macchinari pesanti o un camionista, per monitorarne la fatica ed avvertirlo prima che si addormenti al volante.
Se si può sostenere che in questo caso tali tecnologie siano utilizzate per un uso ‘benigno’, ovvero la salvaguardia della salute e sicurezza dei lavoratori e del pubblico in generale, sorge comunque la domanda fino a che punto queste applicazioni di AI possano essere introdotte sul mercato europeo ed impiegate sul posto di lavoro ai sensi del nuovo Regolamento. È comunque importante sottolineare che, anche se tali sistemi di AI sono ammessi nel mercato Europeo, rimane comunque in vigore l’applicazione del GDPR quando il sistema di AI analizza dati personali, insieme alla normativa su salute e sicurezza sul lavoro. Anche in tali circostanze, infatti, il datore di lavoro sarà tenuto a valutare i rischi per il diritto alla protezione dei dati personali e per la salute e sicurezza connessi con l’introduzione di questo tipo di tecnologie.

5. Sistemi ad alto rischio e salute e sicurezza sul lavoro

L’AI Act classifica una serie di pratiche di AI come ad alto rischio quando il loro impatto sulla salute e sicurezza delle persone fisiche o sui diritti fondamentali è significativo. L’inclusione in questa categoria comporta una serie di requisiti imposti al fornitore riguardanti la gestione dei rischi e la governance dei dati, come l’obbligo di condurre una valutazione dei rischi legati a tali sistemi, trasparenza, e sorveglianza umana (Capo 3, Sezione 2). Sono previsti anche obblighi per tutti i partecipanti lunga la ‘catena del valore’, compresi i deployers, i.e. datori di lavoro nel caso di sistemi utilizzati in ambito occupazionale (Capo 3, Sezione 3).
Un’analisi delle pratiche di AI identificate come ad alto rischio mette in luce che questa normativa sembra aver preso in considerazione sia i potenziali rischi che i benefici di questi sistemi per la salute e sicurezza dei lavoratori. Due considerazioni possono essere sollevate al riguardo.
In primo luogo, l’articolo 6(2) dell’AI Act indica che ci sono una serie di sistemi di AI indipendenti che devono essere classificati ad alto rischio. Questi sono elencati nell’Allegato III, il cui punto 4 (Occupazione, gestione dei lavoratori e accesso al lavoro autonomo) elenca due categorie di pratiche che sono già utilizzate, o potrebbero esserlo, sul posto di lavoro: i sistemi di AI mirati all’assunzione e selezione del personale (punto 4(a)) e quelli destinati alla direzione, valutazione e disciplina dei lavoratori (punto 4(b)). Il punto 4 sembra quindi far riferimento alle pratiche di algorithmic management sempre piú frequentemente adottate dai datori di lavoro in Europa per la selezione, organizzazione e direzione dei lavoratori.
L’inclusione di queste pratiche nella categoria ad alto rischio rappresenta un punto positivo nella direzione della prevenzione dei rischi lavoro-correlati. Infatti, non solo numerosi sono gli esempi di sistemi di AI già presenti sul mercato e impiegati in fase di assunzione del personale, allocazione di compiti, e disciplina dei dipendenti. Studi in materia hanno anche evidenziato i rischi che tali sistemi possono avere sulla salute, in particolare mentale, dei lavoratori, i quali sono soggetti ad una sorveglianza continua e talvolta in tempo reale, e si trovano spesso costretti ad accelerare il ritmo di lavoro per adeguarsi alle direttive impartite dall’algoritmo. Il rispetto dei loro diritti fondamentali, tra cui il diritto alla protezione dei dati personali, è altresì messo a rischio, data la vasta gamma di dati personali, spesso sensibili, raccolti e analizzati da algoritmi. La recente decisione del garante francese della privacy sugli scanners usati da Amazon France Logistique ne è un chiaro esempio.
In particolare, il garante francese ha inflitto una sanzione di 32 milioni di Euro ad Amazon per violazione di alcune disposizioni del GDPR, a causa dei controlli eccessivi sui lavoratori tramite scanners utilizzati per scansionare oggetti. Questi dispositivi raccolgono e analizzano vari dati relativi alla produttività dei lavoratori, come la velocità di scansione degli oggetti (se la scansione avviene troppo velocemente, si aziona un indicatore di errore) e il tempo di inattività tra una scansione e l’altra (e.g., se supera i dieci minuti). L’organizzazione dei turni di lavoro e la valutazione settimanale dei dipendenti si basano sull’analisi di questi dati raccolti. Nonostante la decisione riguardi il diritto alla protezione dei dati personali, è evidente che l’utilizzo di tali strumenti potrebbe mettere a rischio la salute mentale dei lavoratori. Questi ultimi potrebbero esitare a prendersi delle pause, anche quando necessarie, e quindi velocizzare il ritmo di lavoro, ma senza eccedere, poiché altrimenti potrebbe essere considerato sinonimo di scarsa qualità ed attivare l’indicatore di errore nello scanner.
Inoltre, il punto 4(b) dell’Allegato III dell’AI Act indica come sistemi ad alto rischio quelli destinati “a essere utilizzati per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell’ambito di tali rapporti di lavoro”. Questa disposizione è di ampia portata e sembra includere pratiche di AI che la proposta di Regolamento del 2021 sembrava escludere.
Ciò posto, l’AI Act presenta anche una serie di lacune. Innanzitutto, il punto 4(b) dell’Allegato III non menziona salute e sicurezza sul posto di lavoro tra le finalità che un sistema di AI deve avere per essere classificato come ad alto rischio. A tale proposito, come sottolineato dal considerando no. 52, la finalità prevista dal fornitore è determinante per la classificazione di un sistema di AI come sistema ad alto rischio.
Questa esclusione, di conseguenza, sembra aprire la strada a sistemi di AI comunemente pubblicizzati da fornitori come strumenti volti a garantire la protezione della salute e sicurezza del lavoratore. Ad esempio, DorsaVi ha sviluppato una serie di dispositivi progettati per essere posizionati sul corpo (per esempio sulla parte lombare della schiena, sulle spalle) o sugli indumenti al fine di condurre un’analisi biomeccanica dei movimenti e dell’attività muscolare dei lavoratori. Lo user manual dell’applicazione installata su uno smartphone e collegata ai dispositivi chiarisce che questi sensori sono concepiti per analizzare e valutare i movimenti dei lavoratori mentre, ad esempio, sollevano manualmente dei carichi e di conseguenza per mitigare i rischi che ne possono derivare.
Considerato ciò, va comunque sottolineato che alcune tecnologie, come esoscheletri e dispositivi di protezione individuali (nel prosieguo: “DPI”) intelligenti, potrebbero essere inclusi nella categoria di sistemi ad alto rischio ai sensi dell’Articolo 6(1) e Allegato I, il quale fa riferimento alla Direttiva macchine 2006/42/EC, abrogata recentemente dal Regolamento macchine 2023/1230, e al Regolamento 2016/425 sui DPI. Questo a condizione che gli esoscheletri AI-powered e i DPI intelligenti rientrino nell’ambito di applicazioni di tali normative.
Secondariamente, l’AI Act presenta un’ulteriore lacuna, in quanto non è chiaro se, e in che modo, tale normativa debba essere applicata quando la finalità prevista dal fornitore non è inclusa nel punto 4(b) dell’Allegato III, ma è comunque collegata a una delle finalità menzionate in suddetta disposizione. Al riguardo, si può pensare ad un sistema di AI concepito dal fornitore per prevenire rischi alla salute e sicurezza dei lavoratori anche tramite una diversa assegnazione di incarichi che siano più adatti alle condizioni di salute del lavoratore.
Un esempio illustra questo scenario. Ci sono wearables progettati per monitorare, valutare e prevedere il livello di riscaldamento del corpo di un lavoratore in professioni a rischio (come nel settore delle costruzioni) analizzando algoritmicamente una serie di parametri fisiologici, quali la temperatura dermica e la variazione del battito cardiaco. Sulla base di questa valutazione, il dispositivo è in grado di avvertire il lavoratore quando è a rischio di un colpo di calore e di modificare i turni di lavoro di conseguenza. In questi casi, l’impiego di questi dispositivi permette quindi di prevenire un rischio notevole per la salute del lavoratore adattando il ritmo di lavoro alle sue esigenze individuali. Tuttavia, potrebbe anche ‘spingere’ i lavoratori più tolleranti al caldo a lavorare di più creando un effetto domino potenzialmente dannoso per la loro salute.
Sorgono quindi due interrogativi: come è da interpretare ‘assegnare compiti’ ai sensi del punto 4(b) dell’Allegato III? In questi casi, infatti, il sistema di AI non sembra rientrare in una pratica di algorithmic management nel senso ‘tradizionale’ del termine, come ad esempio le note pratiche di Amazon di usare scanners per indirizzare i dipendenti da uno scaffale all’altro del magazzino. Inoltre, il fatto che un sistema di AI ‘assegni compiti’ ai lavoratori come corollario alla protezione della loro salute implica che questo sistema debba rientrare nella categoria di sistemi ad alto rischio? L’AI Act non offre una risposta conclusiva. Il Regolamento prevede l’inclusione di pratiche di AI che determinano l’assegnazione dei compiti in base al comportamento individuale, o i tratti e le caratteristiche personali. Tuttavia, tale formulazione non contribuisce a chiarire se una diversa assegnazione dei compiti basata sulle condizioni di salute di un lavoratore rientri tra le pratiche di AI ad alto rischio. In merito, è importante evidenziare che questo tipo di tecnologie mirano a proteggere la salute dei lavoratori, non essendo quindi direttamente finalizzate ad una delle finalità espressamente menzionata nel punto 4(b) dell’Allegato III. D’altro canto, non si deve trascurare il fatto che, nonostante questa finalità ‘benigna’, queste tecnologie possono avere un impatto notevole sulla salute e sicurezza dei dipendenti, tra cui anche rischi legati alla presenza di componenti elettronici ed al loro potenziale malfunzionamento (e.g., rischio di incendio) e alla connettività con il web (come rischi cyber).

6. Conclusioni

Questo contributo ha evidenziato come la nuova normativa europea sull’uso dell’intelligenza artificiale costituisca un progresso significativo verso la tutela della salute e sicurezza dei lavoratori nell’Unione Europea. Tuttavia, è importante notare che, sebbene sia mirata all’introduzione nel mercato Europeo di sistemi di AI sicuri, non fornisce una regolamentazione specifica sull’impiego di tecnologie di AI sul luogo di lavoro e sulla protezione della salute e sicurezza in un contesto lavorativo.
Inoltre, la normativa presenta anche alcune lacune che dovranno essere colmate. In primis, sebbene sia positiva l’introduzione della proibizione di tecnologie di riconoscimento delle emozioni sul posto di lavoro, è essenziale chiarire l’ambito di applicazione dell’eccezione a questo divieto.
Tale eccezione potrebbe infatti aprire la strada a sistemi di AI che, se da un lato possono portare benefici alla salute e sicurezza dei lavoratori (come il rilevamento di uno stato di affaticamento in un lavoro pericoloso), dall’altro lato possono comportare rischi notevoli (come la raccolta di una vasta gamma di informazioni e rischi psico-sociali derivanti dal monitoraggio continuo).
Le principali incertezze riguardano l’ambito di applicazione del punto 4(b) dell’Allegato III, in particolare se include i sistemi di AI che sono progettati per salvaguardare la salute e sicurezza dei lavoratori, piuttosto che monitorare il loro comportamento o prestazione, o per altre finalità specificate nella normativa.
La ricerca, la progettazione e l’impiego di tali sistemi sul luogo di lavoro stanno diventando sempre più diffusi. Purtroppo, però, finora i policy-makers europei non hanno approfondito questo tema, concentrando la loro attenzione sui rischi associati a pratiche di AI che rientrano precipuamente nel concetto di algorithmic management. Sono quindi necessarie ulteriori ricerche e chiarificazioni a livello istituzionale per chiarire questa complessa e, al contempo, delicatissima questione.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.