Intelligenza artificiale e sicurezza sul lavoro: tra opportunità e nuovi rischi

di Maria Carmela Bonelli

Nel mondo della prevenzione e della sicurezza sul lavoro, l’intelligenza artificiale (IA) non è più soltanto un orizzonte tecnologico, ma una realtà concreta che sta ridisegnando il modo di lavorare, di valutare i rischi e di tutelare la salute dei lavoratori.
A raccogliere, analizzare e discutere in modo sistematico le implicazioni di questa rivoluzione è la CIIP, la Consulta Interassociativa Italiana per la Prevenzione, con un documento approfondito dal titolo “L’Intelligenza Artificiale per la Salute e Sicurezza sul Lavoro”, pubblicato nel 2024 e frutto del lavoro di un gruppo di esperti coordinato da Rocco Vitale e Susanna Cantoni.

Il presidente della CIIP, Gilberto Boschiroli, nella sua presentazione evidenzia la necessità di “fare chiarezza in un mare di parole” sull’IA. Da una parte, infatti, ci sono gli entusiasti che vedono nella tecnologia la soluzione a ogni problema; dall’altra i catastrofisti che temono un futuro dominato dalle macchine.
Il documento cerca di collocarsi oltre questa dicotomia, offrendo un’analisi scientifica e multidisciplinare che coinvolge tecnici, giuristi, medici del lavoro, formatori e ricercatori. L’obiettivo è capire come governare l’innovazione, non subirla.

La CIIP applica un metodo peculiare: riunire attorno a un tavolo esperti di diversa formazione per arrivare a posizioni condivise. È un approccio che, come ricordava il fondatore Antonio Grieco, trasforma la sicurezza in un “concerto di voci diverse sapientemente orchestrato”.

L’introduzione curata da Vitale e Cantoni sottolinea che l’intelligenza artificiale rappresenta una trasformazione profonda del lavoro, con impatti diretti sulla salute, sicurezza e benessere dei lavoratori.
Non si tratta solo di sostituire l’uomo nelle mansioni ripetitive, ma di ridisegnare l’intero sistema produttivo, dalla valutazione dei rischi ai modelli organizzativi, fino alla formazione e alla partecipazione dei lavoratori.

Il documento affronta il tema articolandolo in più capitoli che rappresentano, di fatto, le nuove “frontiere della prevenzione”:

  • evoluzione del lavoro nell’era digitale;
  • valutazione dei rischi e responsabilità;
  • partecipazione dei lavoratori;
  • formazione e gestione del cambiamento;
  • benessere psico-fisico e ruolo del medico competente;
  • aspetti giuridici, etici e sostenibilità.

Il primo capitolo ripercorre la storia dell’evoluzione tecnologica, dalle macchine meccaniche fino all’intelligenza artificiale.
Gli autori Antonio Baldassarre e Alberto Baldasseroni ricordano come l’automazione abbia liberato l’uomo da compiti ripetitivi, ma anche come l’IA stia oggi modificando profondamente la relazione tra lavoro umano e macchina.
Non si parla più solo di robot industriali, ma di sistemi capaci di apprendere, prendere decisioni e interagire con l’ambiente di lavoro.

L’IA, sottolinea il documento, non va intesa come un’entità autonoma e onnisciente: dietro ogni algoritmo ci sono persone, progettisti, programmatori, lavoratori dei dati.
Come scrive Graham, docente a Oxford, “l’idea che l’intelligenza artificiale sia del tutto autonoma è un’illusione: dietro i processi apparentemente automatici c’è sempre il lavoro umano”.

L’introduzione dell’IA in ambito lavorativo apre scenari complessi sul piano della sicurezza e delle responsabilità.
Le interferenze uomo-macchina-ambiente generano nuovi tipi di rischio: dalla perdita di controllo dei sistemi automatizzati ai rischi informatici e alla possibile dequalificazione del lavoro umano.

Il documento invita a rivedere i processi di valutazione dei rischi alla luce delle nuove tecnologie: conoscere la logica che governa gli algoritmi diventa parte integrante della prevenzione.
Non basta verificare la conformità delle macchine: bisogna comprendere come l’IA apprende, come prende decisioni, e quali errori o bias può introdurre nei processi.

La responsabilità, inoltre, si complica: chi risponde di un incidente causato da un sistema automatizzato? Il progettista, l’utilizzatore, o l’azienda che ne ha disposto l’impiego senza un’adeguata formazione?
Sono domande cruciali che impongono una revisione della normativa, anche in relazione al nuovo AI Act europeo, destinato a regolamentare l’uso dell’intelligenza artificiale in tutta l’Unione.

Un aspetto centrale del documento CIIP è la partecipazione dei lavoratori.
La sicurezza non può essere gestita solo “dall’alto”: il coinvolgimento degli operatori è indispensabile per governare la trasformazione digitale in modo inclusivo.

L’IA, infatti, non è neutrale. Può migliorare le condizioni di lavoro — ad esempio monitorando posture, esposizioni o turni stressanti — ma può anche generare nuove forme di controllo e pressione.
L’uso di algoritmi per valutare le performance o gestire i turni, come accade nei modelli di lavoro su piattaforma (riders, logistica, servizi), rischia di accentuare lo squilibrio tra datore e lavoratore.

La CIIP riprende i documenti dell’EU-OSHA, l’Agenzia europea per la sicurezza e la salute, secondo cui la gestione algoritmica dei lavoratori può avere effetti negativi sul benessere psicologico, sull’autonomia e sul diritto alla privacy.
Serve quindi un modello di governance partecipata, in cui i rappresentanti dei lavoratori siano parte attiva nella valutazione dei sistemi IA e nelle scelte aziendali che li riguardano.

La formazione, sottolinea il gruppo di lavoro, è l’arma più efficace per affrontare la transizione digitale.
L’IA può diventare un potente alleato nella didattica della sicurezza — ad esempio simulando scenari di rischio o analizzando comportamenti — ma va usata con criterio e sotto controllo umano.

L’ebook dedica spazio alle esperienze di formazione assistita da IA: dai simulatori per la guida sicura dei carrelli elevatori ai sistemi che valutano nel tempo l’efficacia della formazione ricevuta.
Il punto di forza è la possibilità di personalizzare l’apprendimento e monitorare i progressi, ma resta indispensabile il ruolo del formatore umano nel guidare la riflessione e la consapevolezza.

La CIIP invita a inserire l’IA nei piani formativi aziendali non come gadget tecnologico, ma come strumento strategico di adattamento al cambiamento, integrato con le politiche di prevenzione.

Uno dei capitoli più innovativi del documento riguarda il benessere psico-fisico dei lavoratori.
L’uso massiccio dell’intelligenza artificiale e della digitalizzazione sta modificando ritmi, carichi di lavoro e modalità di controllo.

Un’indagine Eurostat citata nel testo mostra come la digitalizzazione abbia aumentato i ritmi di lavoro, la solitudine professionale e la sorveglianza costante.
Il rischio, avvertono gli autori, è quello di una nuova forma di stress tecnologico: il techno-stress.

In questo contesto il medico competente assume un ruolo cruciale: non solo nella sorveglianza sanitaria, ma anche nella valutazione degli effetti cognitivi e psicologici del lavoro mediato da IA.
La medicina del lavoro, si legge, deve evolversi “da curativa a preventiva”, anticipando gli impatti delle tecnologie sull’organismo e sulla mente.

L’IA non pone solo problemi tecnici, ma anche questioni etiche e di sostenibilità.
Chi controlla gli algoritmi che prendono decisioni sui lavoratori? Come garantire trasparenza, equità e rispetto dei diritti fondamentali?

Il documento CIIP richiama la necessità di un ecosistema digitale “human-centered”, in cui la tecnologia sia al servizio dell’uomo e non viceversa.
Viene affrontato anche il tema della sostenibilità ambientale dell’intelligenza artificiale: i grandi modelli di calcolo consumano enormi quantità di energia e acqua per il raffreddamento dei server, contribuendo alle emissioni globali.

Il gruppo segnala che “il solo uso di ChatGPT consuma circa tre volte l’energia che Google impiega per la stessa risposta”.
Un dato che invita a una riflessione: il futuro dell’IA non può prescindere da un bilancio energetico e ambientale sostenibile.

L’ebook della CIIP si pone esplicitamente l’obiettivo di uscire dal dualismo tra “apocalittici e integrati” evocato da Umberto Eco: l’intelligenza artificiale non è né la salvezza né la condanna, ma un passaggio inevitabile che deve essere governato.
Per farlo, serve un processo “democratico” che coinvolga tutte le figure aziendali — dai dirigenti ai consulenti, fino ai lavoratori stessi — in un dialogo trasparente e informato.

La sicurezza non è solo conformità alle norme, ma cultura condivisa.
E la cultura, conclude il documento, non può essere delegata alle macchine.

In un passaggio emblematico, Vitale e Cantoni ricordano il monito di Norbert Wiener, padre della cibernetica:

“Se per raggiungere i nostri scopi usiamo un ente meccanico senza poter interferire efficacemente con il suo funzionamento, dobbiamo essere assolutamente certi che lo scopo immesso nella macchina sia davvero quello che desideriamo”.

È un messaggio che sintetizza lo spirito del lavoro CIIP: la tecnologia è un mezzo, non un fine.
Dietro ogni algoritmo ci sono scelte umane — progettuali, etiche, politiche — che determinano se l’IA sarà un alleato della sicurezza o un nuovo fattore di rischio.

L’ebook CIIP non è solo una riflessione teorica. È un manuale operativo per chi lavora ogni giorno nella prevenzione: consulenti, RSPP, medici, dirigenti, formatori.
Fornisce un quadro aggiornato delle linee guida europee, del Regolamento AI Act, dell’agenda digitale italiana e delle esperienze concrete già in corso, come il progetto REKON promosso da Inail per il monitoraggio intelligente delle interferenze tra uomo, macchina e ambiente.

In un’epoca in cui la produttività sembra prevalere sulla persona, la CIIP riafferma il valore della sicurezza come diritto e come cultura.
L’intelligenza artificiale, scrivono gli autori, “può migliorare la qualità e la sicurezza del lavoro, ma solo se l’intelligenza umana rimane vigile e critica”.

In altre parole, il futuro della prevenzione non sarà mai solo digitale: sarà umano e tecnologico insieme, guidato da conoscenza, responsabilità e consapevolezza.

Link utili:
🔗 E-book “L’intelligenza artificiale per la sicurezza sul Lavoro” https://www.ciip-consulta.it/index.php?option=com_phocadownload&view=file&id=79:ia-per-la-ssl&Itemid=609

Safety Focus – Anno XII – Numero 21 – 22 ottobre 2025