AI
AI in azienda? Preparati ad avere un super-capo
Il crescente utilizzo dell’intelligenza artificiale nei luoghi di lavoro non è più una mera proiezione futuristica, ma una realtà che ridefinisce le relazioni di potere nel mondo del lavoro. Il rapporto “Negotiating the Algorithm”, pubblicato dalla Confederazione europea dei sindacati (ETUC), mette in guardia contro gli effetti più oscuri dell’algorithmic management, tecnologie che gestiscono compiti, retribuzioni, sorveglianza e punizioni in modo automatizzato.
Algoritmi che dirigono il lavoro: cosa cambia nel rapporto tra datore e lavoratore
L’ETUC, che rappresenta circa 45 milioni di lavoratori in 40 paesi europei, propone un’analisi dettagliata delle modalità con cui l’IA sta già plasmando il mondo del lavoro. Secondo i dati rilevati, circa il 79 % dei siti di lavoro nell’UE utilizza almeno un sistema di gestione algoritmica — cifra che sale al 90 % negli Stati Uniti.
Le funzioni dell’algoritmo emergono come potenzialmente più invasive delle intenzioni: assegnazione dei compiti, variazioni della retribuzione, sorveglianza costante, valutazioni prestazionali incomprensibili, penalizzazioni automatiche e licenziamenti senza dialogo umano. In molti casi, il lavoratore è estromesso dal processo decisionale e può trovarsi soggetto a “controllori invisibili”.
I pericoli delineati dal rapporto: autonomia, discriminazione, trasparenza
Tra i rischi principali, l’ETUC segnala:
- Discriminazione e iniquità: gli algoritmi possono assegnare carichi di lavoro o retribuzioni in modo non neutro e senza spiegazione.
- Sovraccarico e perdita di autonomia: la sorveglianza continua mina l’indipendenza operativa del lavoratore.
- Valutazioni opache: critiche senza appello, valutazioni senza che il lavoratore possa intervenire.
- Punizioni e licenziamenti automatici: decisioni decisive prese da un algoritmo, senza mediazione umana.
Il rapporto evidenzia che questi strumenti non sono confinati ai settori “precari” o digitali: stanno entrando anche in ambiti tradizionali come l’assistenza sanitaria, il diritto, la consulenza, e la terapia.
Qualche resistenza già in atto: risposte sindacali e contromosse
Non tutto è perduto, sostiene l’ETUC. Nel rapporto si raccontano casi concreti di contrattazioni sindacali che hanno imposto trasparenza: in Danimarca, ad esempio, l’app Hilfr ha accettato di fornire spiegazioni agli operatori su come vengono prese le decisioni algoritmiche.
Quando il datore non collabora, il documento suggerisce strategie alternative: richieste formali ai sensi del GDPR per ottenere i dati, tecniche di reverse engineering, creazione di account di confronto (sock‑puppets) o app “controcorrente” che monitorano le decisioni algoritmiche. In sostanza, gli autori affermano che non si tratta di inventare nuovi strumenti, ma di aggiungere “raggi” al raggio già in uso.
Impatti futuri e necessità di regolamentazione
La portata delle trasformazioni suggerisce che prima di tutto serve un quadro normativo capace di:
- imporre trasparenza nei processi decisionali algoritmici,
- garantire un margine di intervento umano nelle decisioni critiche,
- tutelare la dignità dei lavoratori,
- evitare che la tecnologia intensifichi disuguaglianze e sfruttamento.
Il rapporto dell’ETUC è un forte monito: non basta accogliere il progresso tecnologico, ma è essenziale indirizzarlo, affinché l’automazione non produca nuovi dis-equilibri nel rapporto di lavoro.
