testo integrale con note e bibliografia
1. Introduzione.
L’uso degli algoritmi non è esclusivo degli ultimi anni. La singolarità dell’epoca contemporanea è dovuta più che altro al suo uso intensivo, reso possibile dalla disponibilità e dall’accessibilità dei dati - «l’oro del XXI° secolo», come talvolta si dice - e dalle moderne capacità di elaborazione di questi dati: seguendo la legge di Moore, il progresso tecnologico, legato alla fulminea potenza di calcolo dei computer, è esponenziale e le tecnologie di apprendimento automatico (“machine learning”, “deep learning”) stanno vivendo un boom fenomenale. Come ha osservato il Consiglio di Stato, questo periodo segna una «svolta senza precedenti» .
Gli algoritmi e l’intelligenza artificiale alimentano l’immaginario collettivo – a volte fantasticato – di una realtà tecnologica difficile da comprendere per la gente comune. Tuttavia, il profano può accontentarsi di distinguere tre elementi semplificati. Il primo è il banale algoritmo, composto da variabili di input e codice sorgente. Il secondo elemento è più sofisticato e può essere definito intelligenza artificiale (cd. debole): lo sviluppo dell’apprendimento automatico prevede una fase di formazione o di apprendistato, che modifica iterativamente l’algoritmo. L’impressione – difficilmente smentibile – è che la “macchina” (siamo arrivati a usare un vocabolario infantile, spaventati dalla sua ignoranza) stia acquisendo una tale autonomia che i suoi progettisti (umani) faticano a capire come funziona (la “scatola nera”). Il campo medico è pieno di esempi, che si tratti di oncologia, oftalmologia, radiologia o cardiologia: alimentati con dati massicci (ad esempio, immagini mediche), gli algoritmi, così addestrati, sono in grado di individuare le patologie. Infine, il terzo elemento è il risultato dei progressi del futuro: si tratta della cosiddetta intelligenza artificiale forte, che potrebbe portare a una macchina con le facoltà cognitive di un essere umano, ma molto più potente. Potrebbe persino – in una visione fantascientifica – essere in grado di provare emozioni. Resta il fatto che questa intelligenza artificiale forte per il momento non si è ancora realizzata, è frutto dell’immaginazione, anche se nulla sembra impossibile.
Certamente, il mondo del lavoro è pienamente interessato da queste (r)evoluzioni tecnologiche , tanto quanto lo è stato dalla rivoluzione industriale, con l’introduzione delle principali invenzioni dell’epoca. In modo esponenziale, in Europa – e in particolare in Francia – il mondo del lavoro sta facendo ricorso agli algoritmi, forse con un po’ di ritardo rispetto agli Stati Uniti d’America, dove si assiste a un uso sfrenato degli stessi in ambito professionale.
Un esame attento delle forze in gioco porta a un’analisi ricca di sfumature e differenziata. In alcune ipotesi, l’algoritmo supporta l’uomo. In questo caso, l’algoritmo è foriero di risvolti piuttosto positivi: alleggerisce il carico e aiuta a fare bene (o meglio) il lavoro. Ma, in altre ipotesi, l’algoritmo è una prospettiva meno felice per il lavoratore. Da un lato, è diventato comune che i lavoratori siano sottoposti a un’intelligenza artificiale che, nel contesto di un’organizzazione scientifica del lavoro altamente sviluppata - molto al di là di quanto Taylor o Chaplin potessero prevedere in Tempi moderni – comanderà il lavoro – gli esseri umani diventano semplici esecutori – e permetterà al lavoratore di essere controllato in ogni momento. D’altra parte, l’algoritmo talvolta sostituisce il datore di lavoro nella gestione della forza lavoro – le risorse umane, in un linguaggio più moderno – in tutte le fasi del rapporto di lavoro. L’algoritmo, in questo caso, sottomette il lavoratore.
2. Il lavoratore assistito dall’algoritmo.
La prima faccia dell’algoritmo è felice: è al servizio del lavoratore, gli risparmia compiti faticosi o gli permette di svolgere meglio il suo lavoro. L’algoritmo è al servizio del lavoratore, con la prospettiva di una divisione del lavoro tra uomo e macchina (immateriale): strumenti e uomini , per dirla con una formula.
L’intelligenza artificiale che si occupa di compiti di routine e ripetitivi è una prospettiva gradita al lavoratore annoiato ed esaurito da compiti monotoni, a basso valore aggiunto e automatizzabili. Il lavoratore viene liberato da un lavoro ripetitivo e, di conseguenza, le sue condizioni di lavoro migliorano, mentre il tempo di lavoro liberato gli permette di concentrarsi sui compiti centrali della sua professione, con riguardo ai quali può mettere a frutto il suo valore aggiunto. Così come il robot ha liberato l’uomo dalla fatica e dall’alienazione fisica, l’intelligenza artificiale libererebbe da quella mentale, con la prospettiva di una “deautomatizzazione” del lavoro umano.
L’intelligenza artificiale consente anche un lavoro più efficiente e ottimizzato, che riduce i costi per il consumatore o la spesa pubblica, con un minor rischio di errore. Due situazioni, tra le tante, illustrano il punto e forniscono prospettive interessanti: la prima riguarda gli operatori sanitari, la seconda gli operatori legali.
I professionisti della salute, in primo luogo, utilizzano da tempo l’intelligenza artificiale per la prevenzione, il processo decisionale e persino la preparazione di atti medici. Prevenzione: gli oggetti connessi, che consentono il monitoraggio automatizzato dei pazienti sulla base dell’analisi dei dati raccolti, aiutano a prevedere il rischio di esacerbazione di una malattia infiammatoria come l’asma, a rilevare una recidiva del cancro ai polmoni, ecc. Processo decisionale: l’intelligenza artificiale aiuta a diagnosticare casi complessi, con maggiore certezza. Lo strumento è affidabile, in grado ad esempio di rilevare anomalie cardiache rare o silenti, difficili da individuare anche per uno specialista. L’intelligenza può anche consigliare la cura. Preparazione dell’operazione: l’intelligenza artificiale può simulare l’operazione e il chirurgo può esercitarsi. Tutto ciò sembra positivo, per gli operatori, i pazienti e la società, con la prospettiva che la telemedicina sia ancora più sviluppata di quanto lo sia oggi.
In secondo luogo, per quanto riguarda gli avvocati, le soluzioni digitali consentono di automatizzare compiti che prima erano di loro competenza . Ad esempio, le tecnologie di apprendimento automatico consentono di integrare le clausole più adatte direttamente nei modelli contrattuali. Inoltre, garantiscono che la base giuridica venga aggiornata in tempo reale dopo una modifica normativa o giurisprudenziale. Allo stesso modo, analizzando un grande volume di contratti, alcuni strumenti individuano molto rapidamente anomalie, incoerenze o addirittura discrepanze tra un contratto e le best practice precedentemente inserite. Le nuove tecnologie sono anche in grado di anticipare e valutare i rischi legali: sono capaci di ordinare e analizzare un gran numero di documenti per estrarre alcune informazioni mirate, e quindi identificare alcuni rischi precedentemente determinati dall’utente, il che è molto utile per la due diligence. Altri strumenti possono automatizzare la ricerca legale: negli ultimi vent’anni ci sono stati molti sviluppi in questo campo e altri sono all’orizzonte. Nel campo del contenzioso, l’automazione è possibile per alcune controversie semplici ed è già iniziata nel contesto (nebuloso) della giustizia predittiva .
A breve termine, potrebbe essere possibile andare ancora oltre. Così non pare peregrino pensare che, per questioni di scarsa difficoltà tecnica, sarà possibile progettare strumenti che consentano la redazione automatica al posto dell’avvocato, come stanno iniziando a proporre le legaltech. I chabot stanno già rendendo possibile la consulenza di primo livello da parte di avvocati virtuali. Meglio ancora, è probabile che un giorno la macchina sarà in grado di redigere consulenze e conclusioni sulla base dei dati inseriti, ricercando nella massa di informazioni a sua disposizione gli argomenti rilevanti, articolati in un ragionamento, per valutare una situazione, rispondere a una domanda complessa o redigere conclusioni per l’attore o la difesa. E tutto questo in modo più affidabile dell’intervento umano, così come oggi la macchina riconosce un tumore maligno meglio del professore di dermatologia.
Anche in questo caso, si tratta di una prospettiva positiva per il lavoratore (liberato da compiti noiosi e dispendiosi in termini di tempo), per la società e per i contendenti. Tuttavia, ci sono due rilevanti motivi di perplessità. Innanzitutto, la maggior parte degli sviluppi sopra descritti non si è ancora verificata. Tutt’altro: ciò presuppone, nella sua prospettiva massimalista, investimenti colossali. Da dove si attingeranno le risorse?
Questo è il nocciolo della questione, quindi non c’è nulla di certo, anzi.
In secondo luogo, dobbiamo guardarci dalle belle promesse, con il rischio di rimanere (molto) delusi. Il Codice del Lavoro Digitale, ad esempio, dà una buona idea di quanto il fenomeno descritto possa essere deludente in termini di promesse fatte (in questo caso, ottenere una risposta personalizzata alle domande poste sul sito web). Ci riferiamo all’atto di accusa del professor Emmanuel Netter , che evoca il «divario tra gli annunci e la realtà del risultato ottenuto», «la speranza: un distributore automatico di soluzioni», «a realtà: un distributore automatico di informazioni». Affermazioni che chiunque può verificare indicando sul sito: «posso licenziare un dipendente che mi ha insultato?»; le risposte sono scarse e, prima ancora, irrilevanti.
Questi strumenti sono ancora lontani dalla capacità umana di contestualizzare i loro interventi. Sono strumenti e persone: l’uno al servizio dell’altro, un’alleanza tra uomo e macchina (come per altri strumenti materiali, come i robot o gli esoscheletri). «La questione non è la competizione tra intelligenze, ma piuttosto la loro associazione: come l’intelligenza artificiale potrebbe [...] facilitare il nostro lavoro, esternalizzare il lavoro meccanizzabile, permetterci di concentrarci su ciò che ci piace di più fare, pensare, pensare al futuro, interagire con altri esseri umani. Sviluppiamo l’intelligenza artificiale in modo che gli esseri umani possano essere il più umani possibile» . Si prospetta una nuova divisione del lavoro: all’intelligenza artificiale l’esecuzione, la gestione e l’organizzazione; agli umani la creazione, l’immaginazione, la cooperazione e le emozioni. In breve, il lavoro umano, che l’intelligenza artificiale non sa (ancora?) fare: innovare, immaginare, rischiare, intraprendere, creare, gestire le relazioni sociali, ecc.
In questo modo, l’avvocato mantiene il suo valore aggiunto. Sebbene gli algoritmi possano spiegare e persino articolare testi, giurisprudenza e dottrina in un ragionamento, non sono in grado - almeno per il momento – di sviluppare una strategia. Il know-how del giurista – e in particolare dell’avvocato o del notaio - risiede anche nell’ascolto, nella fiducia, nella consulenza personalizzata e nella comprensione delle storie individuali. La professione dell’avvocato potrebbe evolversi, così come si sono trasformate quelle del pilota d’aereo, del neurochirurgo, del dermatologo o dell’oncologo, che già lavorano interfacciandosi con macchine intelligenti. Grazie ai nuovi strumenti, l’avvocato potrebbe essere sollevato da compiti laboriosi e utilizzare il suo tempo per essere creativo, che è il suo vero valore aggiunto. I professionisti del diritto potrebbero anche approfittare del tempo reso disponibile per utilizzarlo in modo diverso e avvicinarsi al contendente, in particolare per cercare una soluzione negoziata, che sarà tanto più ovvia quanto più l’esito della controversia sarà circoscritto dagli strumenti di intelligenza artificiale. In breve, l’intelligenza umana potrebbe essere utilizzata meglio. Il punto è lo stesso per i medici e, al di là di questi esempi, per molti lavori nell’industria e nei servizi trasformati dalle possibilità offerte dall’intelligenza artificiale.
Ragionando in modo per così dire tradizionale, ciò conduce all’idea che i mestieri si evolveranno sotto l’influenza del progresso tecnico, come è avvenuto nei secoli passati con la rivoluzione industriale . Anche in questo caso, ci sono timori legati alla questione sociale . I lavori cambieranno, scompariranno (algoritmi senza persone) e verranno creati: secondo la teoria schumpeteriana della distruzione creativa, i nuovi lavori di domani sostituiranno quelli scomparsi. In termini puramente quantitativi, questa teoria ha un fondo di verità. Ma non tiene conto del livello di qualificazione richiesto per occupare i posti di lavoro creativi e ad alto valore aggiunto di domani, per cui l’ipotesi della permutabilità dei lavoratori potrebbe rivelarsi falsa.
A tale proposito, il passaggio delle classi medio-basse, i cui posti di lavoro vengono distrutti dal progresso tecnologico, si osserva soprattutto dai posti di lavoro meno qualificati eliminati nell’industria a quelli meno qualificati creati nel settore dei servizi, e non verso i lavori creativi ad alto valore aggiunto. Questi lavori di ricollocamento hanno in comune il fatto di essere meno ben retribuiti e meno protetti dei posti di lavoro distrutti (precarietà, lavoro a tempo parziale, perdita del beneficio derivante dall’applicazione di contratti collettivi vantaggiosi) e di portare a un tenore di vita peggiore per chi li occupa. Il movimento dei Gilet Gialli è stato indicativo di tali sviluppi . Le persone coinvolte sono spesso impiegate in condizioni precarie e con una retribuzione che non consente di sfamare loro (i lavoratori poveri) e le loro famiglie, oppure sono sottoposte a metodi disumanizzanti, impiegati in atmosfere simili a quelle di una fucina: si pensi agli operatori addetti a carrelli elevatori nel settore della logistica che devono obbedire agli ordini di un programma software che detta a intervalli regolari le azioni da intraprendere. Per lo storico israeliano Yuval Noah Harari, le prospettive sono ancora più disastrose: «potremmo assistere alla formazione di una nuova classe non lavorativa: persone senza alcun valore economico, politico o artistico, che non contribuiscono in alcun modo alla prosperità, al potere e all’influenza della società» .
Stiamo lottando per far rinascere un tessuto industriale necrotico che si stringe attorno alle industrie più innovative ed efficienti, che offrono i posti di lavoro più qualificati. I servizi non sono stati risparmiati, poiché il progresso della robotizzazione, dell’automazione e della tecnologia digitale tende a sostituire l’uomo con la macchina: lo sportello non ha più un volto, il bancario è virtuale e domani il personale alla cassa del supermercato non sarà più che un ricordo. Infine, sotto l’effetto del progresso tecnologico, i lavori industriali e di servizio poco creativi e ripetitivi prima o poi scompariranno, se non l’hanno già fatto. Ciò alimenta la polarizzazione del mercato del lavoro osservata nei Paesi occidentali. Da un lato, ci sono i lavori altamente qualificati che sono richiesti in un mercato del lavoro ristretto. Per usare un’espressione in voga negli Stati Uniti, si tratta di lovely jobs, ben pagati e protetti. Dall’altro lato, ci sono i lavori duri, poco qualificati e mal pagati. I lovely jobs sono contrapposti ai bullshit jobs. In poche parole, il paesaggio si sta ricomponendo intorno alle figure del cervello e del servo . Tra questi due poli, il mercato del lavoro si sta svuotando dal centro, con gravi conseguenze per la classe media che occupava i posti di lavoro nell’industria e nei servizi che sono scomparsi o stanno per scomparire. Siffatta classe media, che è stata la punta di diamante del dopoguerra, ha sopportato il peso della deindustrializzazione causata dalla globalizzazione e dai cambiamenti tecnologici (robotizzazione, automazione, tecnologia digitale), un processo in corso da trent’anni. Milioni di posti di lavoro che ne costituivano l’ossatura sono già stati sacrificati e continueranno a esserlo in futuro con il progresso tecnologico.
3. Il lavoratore sottoposto all’algoritmo.
In questo caso, il lavoratore è soggetto all’algoritmo, che lo controlla e lo monitora. Allo stesso modo, a volte l’algoritmo gestisce (nel senso di “gestione” delle risorse umane) il lavoratore. In un caso come nell’altro, il datore di lavoro perde la sua dimensione umana, come se il detentore del potere non avesse più carne e ossa.
L’alienazione è lo stato di chi ha perso il suo libero arbitrio. In concreto, ci riferiamo alla direzione, al controllo e alla sorveglianza algoritmica, che va descritta, prima di esaminare come viene affrontata dalla legge, ponendo come tema di fondo la questione di una possibile evoluzione delle norme.
La gestione algoritmica riguarda situazioni in cui non è il dipendente a definire come svolgere il proprio lavoro, e nemmeno il suo datore di lavoro, ma l’algoritmo. A volte si tratta di una semplice raccomandazione: è il caso del pilota di linea che opta, seppure potrebbe essere rimproverato – anche in termini legali – per certe scelte (l’esempio è quello dell’ammaraggio del volo US Airways 1549 sul fiume Hudson da parte del pilota Chesley “Sully” Sullenberger nel gennaio 2009). A volte, e più spesso, si tratta di ordini.
Gli esempi sono molti, dai lavoratori delle piattaforme digitali (l’autista deve seguire il percorso determinato dall’algoritmo usato da Uber), ai lavoratori che fanno i tragitti (per consegnare merci o fare lavori in cantiere): l’ordine ottimale del tragitto è pianificato da un algoritmo basato sulla localizzazione del veicolo (GPS) e sui vari pericoli, con lo strumento che prevede questi pericoli sfruttando i dati passati (ad esempio l’evoluzione del traffico in base al giorno o al periodo della settimana, le condizioni meteorologiche, ecc.), con una riorganizzazione in tempo reale grazie a un ricalcolo costante. Un altro esempio è il software per gli ordini vocali. Il lavoro degli addetti agli ordini consiste nell’attraversare un magazzino per prendere i prodotti, che poi vengono spediti. Negli ultimi dieci anni circa, i sistemi di guida vocale sono diventati gradualmente la norma: si tratta del cd. “voice picking”, che in pratica consiste in un dialogo (i lavoratori indossano cuffie dotate di microfono) tra un dipendente e un sistema informatico, che gestisce i flussi di informazioni e detta il tipo e il numero di merci da prelevare. L’operaio deve seguire il ritmo dettato dalla macchina, come descritto in un articolo di Le Monde:
«Con le cuffie-microfono avvitate sulla testa, gli impiegati che sembrano figure Lego emettono litanie di cifre. Le azioni degli addetti alla raccolta degli ordini sono governate da un robot vocale. Un supercomputer ottimizza i loro movimenti nei corridoi in base alle consegne da preparare. Come in un videogioco, l’obiettivo è evitare movimenti inutili in questo labirinto di pacchi per ottenere il miglior punteggio possibile. Il software fornisce all’addetto al picking le coordinate del prodotto da consegnare e ne controlla il codice di identificazione, che viene letto ad alta voce dall’addetto» .
Il monitoraggio e la sorveglianza algoritmici permettono di fare diverse cose. Anzitutto possono comportare il monitoraggio continuo del lavoratore mentre esegue i compiti, con valutazioni delle prestazioni, a volte in tempo reale (ci sono molti esempi di applicazioni che lo consentono). Il monitoraggio può essere effettuato anche con accessori connessi, come i “badge intelligenti”, che misurano la velocità con cui i lavoratori si muovono e svolgono le attività, tracciano le loro interazioni e valutano persino la qualità delle loro conversazioni. I badge sociometrici, ad esempio, monitorano non solo i movimenti dei lavoratori sul posto di lavoro, ma anche il loro tono di voce quando parlano con i colleghi attraverso i microfoni integrati. Inoltre, è possibile determinare la salute fisica e mentale dei lavoratori (i sensori misurano i dati biometrici e altri dati sanitari, come la frequenza cardiaca e la pressione sanguigna), o monitorare lo stato mentale ed emotivo e i livelli di stress dei lavoratori: l’intelligenza artificiale può essere utilizzata per esaminare le espressioni facciali e valutare l’entusiasmo o lo stato emotivo. Inoltre, gli strumenti a disposizione analizzano le e-mail e i messaggi dei dipendenti, il ritmo della tastiera, la cronologia di navigazione, ecc. per monitorare la produttività dei lavoratori, identificare i comportamenti più innovativi, ma anche quelli devianti. È quindi possibile monitorare gli esseri umani, così come le macchine, con i sensori, creando asimmetrie di potere grazie alla fenomenale capacità di raccogliere ed elaborare dati, ben oltre le possibilità della sorveglianza umana. Si tratta addirittura di una forma di neuro-sorveglianza resa possibile dagli algoritmi.
Ciò non rende scontata la necessità che le norme del diritto del lavoro si evolvano, poiché la plasticità che le connota consente loro di affrontare nuovi fenomeni. Quanto affermato sembra essere vero con riguardo a tre aspetti principali. Il primo è la qualificazione dei contratti di lavoro per i lavoratori delle piattaforme. Il giudice francese, come molti altri giudici in Europa e nel mondo, non si è fatto influenzare dal fatto che gli ordini e il controllo sono algoritmici. L’intermediario tecnologico non ha in alcun modo eroso i criteri di qualificazione del contratto di lavoro: la subordinazione algoritmica è qualificata come subordinazione legale .
Il secondo aspetto riguarda i diritti e le libertà. Ovviamente, c’è da preoccuparsi seriamente per le minacce ai diritti fondamentali poste dagli strumenti di controllo sopra descritti, che sono a dir poco invasivi. A questo proposito, il rapporto della Commissione globale sul futuro del lavoro, redatto nell’ambito dell’Organizzazione internazionale del lavoro (OIL), sottolinea che «l’esercizio della gestione, della sorveglianza e del controllo algoritmico, attraverso sensori, accessori connessi e altre forme di monitoraggio, deve essere regolato per proteggere la dignità dei lavoratori. Il lavoro non è una merce e i lavoratori non sono robot» .
Anche in questo senso, la bozza di Regolamento UE del 21 aprile 2021 sull’intelligenza artificiale sottolinea che «i sistemi di intelligenza artificiale utilizzati per monitorare le prestazioni e il comportamento di queste persone possono anche incidere sui loro diritti alla protezione dei dati e alla privacy».
Il diritto francese, tuttavia, consente già una reazione, a diversi livelli. In primo luogo, l’articolo 9 del Codice civile, secondo il quale «ogni persona ha diritto al rispetto della propria vita privata», può essere utilmente chiamato in causa. In secondo luogo, l’articolo L. 1121-1 del Codice del lavoro è uno strumento prezioso per arginare gli eccessi della subordinazione algoritmica: «Nessuno può imporre restrizioni ai diritti delle persone e alle libertà individuali e collettive che non siano giustificate dalla natura del compito da svolgere o che non siano proporzionate allo scopo perseguito».
Il terzo ed essenziale aspetto riguarda le condizioni di lavoro, in presenza di un’intensificazione del lavoro e persino di una sua disumanizzazione. In questo senso, il professor Pierre-Yves Verkindt ha sostenuto chiaramente: «Il confinamento dei lavoratori in processi e procedure, senza alcuna possibilità di negoziazione o discussione, da parte degli algoritmi porta alla disumanizzazione» . In effetti, la gestione algoritmica comporta un aumento del ritmo di lavoro, un notevole carico fisico e mentale e una perdita di autonomia per il dipendente (diretto da uno strumento che non controlla). Tutto ciò conduce ad un senso di alienazione, alla percezione di diventare un’appendice della macchina.
Nelle catene logistiche, gli addetti alla raccolta degli ordini passano giornate intere con una voce artificiale che dice loro costantemente cosa fare. Nell’articolo di Le Monde citato in precedenza, a proposito dell’uso del software di comando vocale, uno dei dipendenti ha testimoniato: «Se parliamo con qualcuno senza sollevare il microfono, il sistema ci invia un messaggio di errore [...]. Alcuni dei miei colleghi se lo sognano di notte.
Inoltre, poiché tendiamo ad alzare il volume per sentire bene, questo ci rende sordi. [...] Si diventa meno socievoli, ci si sente un robot». Altrove, l’algoritmo riassegna i venditori, in tempo reale e senza intervento umano, in base al flusso di clienti e alle prestazioni di ciascun venditore.
L’intermediario che era il manager (il supervisore) è scomparso, e con lui la sua capacità di essere empatico, di tenere conto di situazioni specifiche (si può pensare al caso del lavoratore che confida al suo superiore un problema personale che sta momentaneamente influenzando il suo rendimento, quando non è “in vena di lavorare”).
Queste situazioni sono legate alla nozione di lavoro dignitoso. I concetti marxisti di sfruttamento e alienazione non sono obsoleti in questo caso, che vede il lavoratore ridotto a mero strumento di produzione, a mera forza-lavoro, a valore esclusivamente materiale. Come scriveva Simone Weil, «l’intera società deve innanzitutto essere costituita in modo tale che il lavoro non trascini con sé coloro che lo svolgono» : la questione del lavoro dignitoso, che guida l’azione dell’OIL dal 1999 , sulla scia della Dichiarazione di Filadelfia del 1944 , deve essere al centro della riflessione e dell’azione. Anche per il Comitato Economico e Sociale Europeo , l’essere umano deve rimanere al posto di comando, poiché «non è eticamente accettabile che un essere umano sia vincolato dall’intelligenza artificiale o che sia considerato come un esecutore della macchina che detta i compiti da svolgere».
In termini giuridici, queste considerazioni vanno collegate alle norme sulla salute e sulla sicurezza sul lavoro: è questa la posta in gioco, poiché le situazioni descritte generano rischi professionali, in particolare psico-sociali. Gli articoli L. 4121-1 e seguenti del Codice del lavoro possono essere utilmente invocati anche a tale riguardo. In particolare, quando la legge stabilisce che «Il datore di lavoro prende le misure necessarie per garantire la sicurezza e la protezione della salute fisica e mentale dei lavoratori. [...] Il datore di lavoro provvede affinché tali misure siano adattate per tener conto dell’evoluzione delle circostanze e mirino a migliorare le situazioni esistenti» (C. trav., art. L. 4121-1); «Il datore di lavoro attua le misure previste dall’articolo L. 4121-1 sulla base dei seguenti principi generali di prevenzione: [...] 4° Adattare il lavoro all’individuo, in particolare per quanto riguarda la concezione dei posti di lavoro e la scelta delle attrezzature di lavoro e dei metodi di lavoro e di produzione, al fine di limitare in particolare il lavoro monotono e il lavoro a ritmo fisso e di ridurne gli effetti sulla salute; [...] 7° Pianificare la prevenzione integrando, in un insieme coerente, la tecnica, l’organizzazione del lavoro, le condizioni di lavoro, le relazioni sociali e l’influenza dei fattori ambientali [...]». Non è necessario legiferare per prevenire situazioni di alienazione stigmatizzate; le disposizioni esistenti in materia di salute e sicurezza consentono già di perseguire tali obiettivi.
Gli algoritmi vengono utilizzati anche per gestire le carriere dei dipendenti in tutte le fasi del rapporto di lavoro. Le decisioni di assumere, promuovere, premiare o punire determinati lavoratori, o addirittura di licenziarli, possono essere influenzate (guidate) dagli algoritmi. Possono persino essere loro a decidere.
Citiamo, in ordine sparso, diverse situazioni. Nel settore del reclutamento, gli algoritmi sono ormai comunemente utilizzati per lo screening delle candidature o per la valutazione dei candidati durante i colloqui automatizzati. Ad esempio, il sistema ideato dalla società di recruitment technology HireVue , genera un punteggio di “occupabilità” a partire dall’immagine del candidato, ripresa durante il colloquio: la selezione viene effettuata in relazione all’aspetto e al modo di parlare, sulla base dei movimenti facciali, del tono di voce, dei manierismi e del vocabolario. Grandi aziende utilizzano questo sistema (Hilton, Unilever, secondo l’Huffington Post ), la cui affidabilità non è, va detto, così scontata (detto questo, i selezionatori francesi utilizzano ancora la grafologia, un processo altrettanto incerto...). L’intelligenza artificiale viene utilizzata anche per la gestione delle carriere: i piani di formazione e le promozioni sono guidati da analisi predittive che utilizzano algoritmi. Più sorprendentemente, gli algoritmi vengono utilizzati anche per identificare gli “influenzatori” e gli “agenti di cambiamento” sulla base dell’osservazione del comportamento dei dipendenti. Inoltre, sono usati anche per premiare i dipendenti, come fanno ad esempio le piattaforme, quando concedono ai lavoratori meritevoli, cioè quelli con buone valutazioni (con “buone statistiche”), la possibilità di prenotare i turni (shift) migliori (fasce orarie di lavoro), quelli cioè in cui la domanda è maggiore e il lavoro meglio retribuito. Nella stessa ottica, il rapporto contrattuale può essere interrotto quando l’algoritmo decide: un articolo di Bloomberg racconta la situazione kafkiana, negli Stati Uniti, di un fattorino di Amazon licenziato per decisione dell’algoritmo («la tua reputazione è scesa al di sotto di un livello accettabile»), e quando il lavoratore si lamenta e prova a giustificarsi, si trova di fronte a un dialogo sordo e surreale con algoritmi che non vogliono sentire ragioni . Nel dicembre 2020, il senatore Chris Coons, democratico del Delaware, ha proposto l’Algorithmic Fairness Act (legge sulla correttezza degli algoritmi) per richiedere alla Federal Trade Commission di emanare norme per garantire che gli algoritmi siano utilizzati in modo equo rispetto alle persone interessate dalle loro decisioni.
Anche in questo caso, ci si chiede come debba reagire la legge e se siano necessarie nuove regole. Da questo punto di vista, vale la pena sottolineare diversi aspetti. In primo luogo, le norme stabilite dalla legge sulla protezione dei dati del 6 gennaio 1978 e dal RGPD pongono seri limiti agli abusi. Non è possibile essere esaustivi in poche righe, ma è sufficiente sottolineare la forza dei seguenti principi e regole .
1°) Il principio di finalità limita il modo in cui i dati possono essere utilizzati o riutilizzati ed evita la raccolta di dati “just in case”. I dati vengono raccolti per uno scopo ben definito e legittimo e non possono venire ulteriormente trattati in modo incompatibile con lo scopo iniziale. Il corollario di tale principio - ossia il principio di minimizzazione - limita la raccolta dei dati a quanto strettamente necessario per raggiungere lo scopo.
2°) Le persone devono mantenere il controllo sui dati che le riguardano. Ciò significa che devono essere chiaramente informate, non appena vengono raccolti, dell’uso che verrà fatto dei loro dati. In nessun caso questi ultimi possono essere raccolti a loro insaputa. Le persone devono inoltre essere informate dei loro diritti e di come esercitarli.
3°) Alcuni dati sono soggetti a una protezione speciale (dati sensibili).
4°) Diritti di consultazione o di accesso, rettifica o cancellazione dei dati, e anche di opposizione.
5°) Conservazione limitata dei dati: i dati possono essere conservati solo per il tempo strettamente necessario al raggiungimento dell’obiettivo perseguito.
6°) Sicurezza dei dati: le misure sono adattate in funzione della sensibilità dei dati o dei rischi che possono gravare sulle persone in caso di incidente di sicurezza.
7°) Diritto all’intervento umano: l’articolo 22 del GDPR, relativo al processo decisionale individuale automatizzato, compresa la profilazione, recita: «L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona». Sono previste eccezioni, ma il responsabile del trattamento deve attuare misure adeguate per salvaguardare i diritti e le libertà e gli interessi legittimi dell’interessato, tra cui va annoverato il diritto imprescindibile di ottenere l’intervento umano da parte del responsabile del trattamento, di esprimere il proprio punto di vista e di contestare la decisione.
In secondo luogo, per quanto riguarda l’eventuale violazione dei diritti delle persone, il diritto del lavoro consente di reagire sulla base dell’articolo L. 1121-1 del Codice del lavoro, che è già stato citato e la cui plasticità non ha bisogno di essere dimostrata: tale disposizione può essere utilmente mobilitata dagli attori del sistema, compresi i giudici, per prevenire gli abusi. Neppure è possibile che il dipendente francese si veda rescisso il contratto o venga penalizzato senza che gli vengano fornite spiegazioni nel corso di una procedura in contraddittorio che si conclude con una notifica scritta e, ovviamente, il datore di lavoro non può trovare un alibi alla sua decisione adducendo quella indicata dall’algoritmo.
In terzo luogo, è in discussione il rischio di discriminazione insito nell’algoritmo. A prima vista, quest’ultimo sembra essere ridotto al minimo grazie al trattamento oggettivo - matematico - delle situazioni. Ma la realtà è più complessa, come sottolinea la già citata bozza di Regolamento UE del 21 aprile 2021 sull’intelligenza artificiale, riguardante «i sistemi di intelligenza artificiale utilizzati per questioni connesse all’occupazione, alla gestione della forza lavoro e all’accesso al lavoro autonomo, in particolare per l’assunzione e la selezione di persone, per prendere decisioni in materia di promozione e licenziamento, per l’assegnazione di compiti e per il monitoraggio o la valutazione di persone nel contesto di rapporti di lavoro contrattuali»: «Durante il processo di assunzione e durante la valutazione, la promozione o il mantenimento delle persone nell’ambito dei rapporti di lavoro contrattuali, i sistemi di intelligenza artificiale possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di alcune fasce di età e delle persone con disabilità, o nei confronti di alcune persone a causa della loro origine razziale o etnica o del loro orientamento sessuale».
Su questo punto, il Défenseur des droits (Difensore dei diritti, che ha natura di autorità indipendente), in collaborazione con la Commission Nationale Informatique et Liberté (CNIL, un’altra autorità indipendente), ha redatto nel 2020 un documento molto illuminante dal titolo “Algoritmi: prevenire l’automazione della discriminazione”. Gli autori insistono sul fatto che, a monte, la programmazione degli algoritmi è umana e che si nutre di pregiudizi, a volte intenzionali, ma il più delle volte non intenzionali quando i dati utilizzati dall’algoritmo sono il risultato di comportamenti discriminatori passati. Una sottorappresentazione delle donne può, ad esempio, influenzare l’algoritmo: Amazon ha dovuto abbandonare un programma di reclutamento, dopo aver scoperto che sfavoriva le candidate donne . A volte è l’uso di criteri apparentemente neutri che può avere effetti discriminatori indiretti. Allo stesso modo, i sistemi decisionali basati su algoritmi a volte non sono in grado di distinguere tra le diverse situazioni, con il rischio di discriminazione: ad esempio, il tribunale di Bologna ha stabilito che l’algoritmo di Deliveroo , che utilizzava un “indice di affidabilità” per classificare gli autisti delle consegne e quindi assegnare le priorità, era discriminatorio, in quanto l’algoritmo non distingueva tra le cause di cancellazione e discriminava i lavoratori malati o in sciopero.
Nel diritto positivo, le regole probatorie vengono in soccorso del lavoratore vittima di discriminazioni: «Il dipendente adduce elementi di fatto che suggeriscono l’esistenza di una discriminazione [...]. Alla luce di tali elementi, spetta al [datore di lavoro] dimostrare che la sua decisione è giustificata da elementi oggettivi estranei a qualsiasi discriminazione. Il giudice formerà la sua opinione dopo aver disposto, se necessario, le misure istruttorie che riterrà utili» (C. trav., art. L. 1134-1). L’uso di un algoritmo non ha alcun impatto sull’onere della prova che incombe sulle parti, se non quello di rendere più difficile il compito del datore di lavoro che non padroneggi la “scatola nera”. Il datore di lavoro non può nascondersi dietro l’algoritmo - o addirittura il suo elemento sconosciuto: la “scatola nera” - per evitare di fornire gli elementi oggettivi che ci si aspetta da lui: altrimenti, rischia di perdere la causa. In presenza di una decisione algoritmica discriminatoria, il datore di lavoro si fa quindi carico delle conseguenze dell’illegittimità.
In un’ottica più prospettica, che rispecchia la critica alla mancanza di trasparenza della gestione algoritmica, potrebbe essere richiesta una maggiore trasparenza dell’algoritmo. Il RGPD fornisce gli inizi di una risposta imponendo all’articolo 13 l’obbligo di fornire «informazioni utili sulla logica sottostante» al processo decisionale automatizzato. Più ambiziosamente, potrebbe trattarsi di garantire la comprensione degli algoritmi e delle loro regole di funzionamento, il che significherebbe essere in grado di spiegare il loro funzionamento. Potrebbe anche trattarsi, in una visione massimalista, del diritto di ispezionare i dati che alimentano l’algoritmo. Allo stesso modo, si dovrebbe consentire a terzi, e non solo ai destinatari delle singole decisioni, di accedere a queste informazioni? Che dire, ad esempio, dei rappresentanti del personale? Il funzionamento dell’algoritmo dovrebbe poter essere spiegato.
Su questo punto, come su tutti gli altri, la contrattazione collettiva potrebbe avere un ruolo cruciale nel concordare regole, il più possibile aderenti alle peculiarità dell’azienda, per regolare la subordinazione e la gestione algoritmica, e per prevenire, con buone intenzioni, gli abusi. A questo proposito, il 22 giugno 2020 le parti sociali europee hanno firmato un accordo europeo sulla digitalizzazione, avvalendosi della possibilità offerta dall’articolo 154 del TFUE di concludere un accordo e attuarlo autonomamente. L’accordo considera gli aspetti positivi della digitalizzazione per i datori di lavoro, i lavoratori e le persone in cerca di lavoro, pur evidenziando «sfide e rischi per i lavoratori e le imprese».
Promuove giustamente la negoziazione tra le parti sociali per affrontare tali sfide e rischi.