testo integrale con note e bibliografia

Si può affermare, senza eccessivi timori di smentita, che l’intelligenza artificiale (IA o, all’inglese, AI) è il tema del momento, per i giuristi e non solo.
Non per nulla, la Rivista si è già ampiamente occupata dell’argomento nei precedenti fascicoli e nell’utilissimo speciale antologico, sulla cui scia si colloca il presente focus, che mira, in particolare, ad offrire una lettura lavoristica del Regolamento Europeo 2024/1689 in materia di Intelligenza Artificiale (meglio noto come AI Act).
L’obiettivo è, in generale, di promuovere la literacy, ossia la conoscenza diffusa – espressione da preferire al termine, pur corretto a livello di traduzione, “alfabetizzazione”, che pure campeggia nell’art. 4 dell’AI Act – del nuovo strumento e delle regole che, nell’ordinamento euro-unitario, puntano a garantirne un utilizzo rispettoso dei diritti fondamentali.
Non si può, del resto, dubitare che il ricorso all’AI comporti alcuni rischi per i diritti fondamentali delle lavoratrici e dei lavoratori, oltre che degli individui in generale.
L’argomento proverebbe, tuttavia, troppo qualora inducesse a concludere che vi sia un’incompatibilità di fondo tra l’evoluzione della tecnologia e la tutela del lavoro.
All’opposto, proprio dall’AI Act emerge chiaramente l’idea per cui l’AI debba fungere da mezzo a servizio dell’uomo e, dunque, porsi quale strumento ausiliario e non sostitutivo dello stesso (come a ragione puntualizza Paolo Tosi), donde il reiterato richiamo, all’interno del Regolamento 2024/1689, all’idea di un’AI antropocentrica.
Tale impostazione, che permea l’intero articolato normativo euro-unitario, si estende alle disposizioni che esso dedica al lavoro, pure costruite attorno al concetto di rischio.
Da un lato, si collocano i sistemi a rischio inaccettabile (come i sistemi di riconoscimento delle emozioni sul posto di lavoro o di categorizzazione biometrica delle persone, volti a dedurre caratteristiche sensibili come la razza, le opinioni politiche, l’affiliazione sindacale, l’orientamento sessuale e il credo religioso), la cui immissione in commercio all’interno dell’Ue viene vietata.
Dall’altro lato, si pongono i sistemi ad alto rischio, tra i quali rientrano i software utilizzati, in generale, nel campo dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo. L’impiego di tali strumenti non è precluso in radice, ma, come evidenzia Vincenzo di Cerbo, è condizionato al rispetto di una serie di obblighi che il Regolamento pone in capo, a monte, al fornitore (verifica, mappatura, istituzione di un sistema di gestione dei rischi e formazione dell’utilizzatore) e, a valle, all’utilizzatore (ossia, ai nostri fini, al datore di lavoro, chiamato ad attuare la sorveglianza umana e ad effettuare, laddove prevista, la valutazione di impatto e, soprattutto, a garantire la trasparenza, la quale, come mettono in rilievo da Licia Garotti e da Giulia De Biase, presenta alcuni profili di potenziale frizione con la protezione dei segreti aziendali).
A latere dei rischi, però, l’AI risulta altresì foriera di interessanti opportunità. Si consideri, a titolo esemplificativo, la materia della sicurezza sul lavoro, sulla quale si concentra il contributo di Stefania Morassi. Se, per un verso, l’utilizzo dell’AI può comportare notevoli rischi per la salute fisica e mentale dei lavoratori, per altro verso, le nuove tecnologie possono contribuire alla protezione della salute e della sicurezza degli stessi. In altri termini, il rapporto tra sicurezza sul lavoro ed AI può essere declinato nella duplice e complementare dimensione, da un lato, della sicurezza dall’AI (da intendersi quale protezione, da parte del deployer/datore di lavoro, dai rischi ingenerati dall’AI), e, dall’altro lato, della sicurezza attraverso l’AI (da ricondursi alla riduzione dei rischi mediante il ricorso all’AI, eventualmente assistita dalla robotica, da parte del deployer/datore di lavoro).
D’altro canto, se si guarda al sistema delle fonti, si può osservare come l’AI Act costituisca un punto di partenza e non di arrivo del processo di adeguamento della normativa (lavoristica e non) all’AI.
Infatti, come ricorda Giuseppe Bronzini, è lo stesso AI Act a prevedere, secondo un modello di relazione tra le fonti dell’ordinamento multi-level già sperimentato con il GDPR (rispetto al quale l’AI Act si pone a sua volta in un rapporto di complementarietà), che al legislatore nazionale (nonché, si badi, alle parti sociali) è consentito approntare una migliore protezione dei lavoratori rispetto a quella garantita dalla cornice europea sull’intelligenza artificiale.
Proprio per questo, continua ad assumere rilevanza, nello scenario italiano, l’art. 1-bis d.lgs. n. 152/1997, introdotto dal d.lgs. n. 104/2022 (“decreto trasparenza”) e, dunque, in epoca anteriore all’approvazione dell’AI Act, così come, ma in un’ottica de iure condendo, il d.d.l. n. 1146 della XIX legislatura in materia di intelligenza artificiale (attualmente in discussione in Senato), il quale, però, come rilevato da Emanuele Dagnino, assume un carattere più ricognitivo che innovativo dei contenuti racchiusi nei plessi normativi (a partire dall’AI Act) che vengono in rilievo nella materia in esame.
Di conseguenza, una delicata sfida attende nel prossimo futuro, oltre al legislatore interno e alle parti sociali, gli stessi interpreti, chiamati ad un’ardua opera di sistematizzazione, cui si confida il presente approfondimento possa contribuire, di un quadro giuridico ancora in costruzione ed inevitabilmente destinato ad inseguire i rapidi mutamenti una tecnologia certamente rivoluzionaria, ma non necessariamente disruptive.

Questo sito utilizza cookie necessari al funzionamento e per migliorarne la fruizione.
Proseguendo nella navigazione acconsenti all’uso dei cookie.