Pixel Facebook
IL BLOG DI VEGA: GUIDA SU AMBIENTE E SICUREZZA

Intelligenza artificiale e sicurezza sul lavoro: la prima legge italiana

La Legge 23 settembre 2025, n. 132, entrata in vigore il 10 ottobre 2025, rappresenta il primo quadro normativo nazionale dedicato all’intelligenza artificiale (IA) e alla sua integrazione nei processi produttivi, organizzativi e decisionali delle imprese italiane.

La norma recepisce e integra il quadro europeo definito dal Regolamento UE 2024/1689 (AI Act), adattandolo al contesto lavorativo italiano. Per la prima volta, il legislatore italiano definisce infatti obblighi per datori di lavoro, produttori di sistemi di IA e utilizzatori finali, chiarendo anche come integrare l’IA nella gestione della sicurezza sul lavoro.

La nuova legge italiana sull’intelligenza artificiale mira a garantire che l’introduzione dell’IA avvenga in modo controllato, verificabile e coerente con la tutela della salute, della sicurezza e dei diritti dei lavoratori, definendo regole uniformi per l’adozione delle tecnologie intelligenti nei diversi settori produttivi.

COS’È LA LEGGE ITALIANA SULL’INTELLIGENZA ARTIFICIALE E QUALI SONO I SUOI OBIETTIVI?

La diffusione dell’intelligenza artificiale sta trasformando profondamente il mondo del lavoro, ma la sua integrazione deve avvenire nel rispetto di regole chiare, verificabili e orientate alla tutela della sicurezza sul lavoro con intelligenza artificiale.
La Legge 132/2025 stabilisce i principi generali per la ricerca, sperimentazione, sviluppo, adozione e utilizzo dei sistemi e dei modelli di intelligenza artificiale, con l’obiettivo di assicurare che tali tecnologie supportino la persona e non ne compromettano diritti, sicurezza e libertà decisionali. Gli obiettivi principali includono:

  • favorire uno sviluppo antropocentrico dell’IA, ponendo al centro la persona e i suoi diritti;
  • garantire un uso corretto, trasparente e responsabile delle tecnologie intelligenti;
  • tutelare diritti fondamentali, sicurezza nazionale e ordine democratico;
  • prevenire discriminazioni e limitazioni della libertà decisionale delle persone;
  • coordinare la normativa italiana con il Regolamento Europeo AI Act, creando un sistema armonizzato.

La nuova legge italiana sull’intelligenza artificiale, integrata con l’AI Act europeo, crea un quadro normativo chiaro e vincolante per tutte le realtà che utilizzano sistemi intelligenti.

Gli obiettivi della Legge Italiana sull’IA assumono particolare rilievo per il mondo del lavoro, dove l’IA può incidere su sicurezza, processi decisionali, formazione, organizzazione e produttività.

IN QUALI SETTORI SI APPLICA LA LEGGE ITALIANA SULL’INTELLIGENZA ARTIFICIALE?

La legge sull’intelligenza artificiale italiana si applica trasversalmente ai settori produttivi e alle imprese, riconoscendo l’IA come leva strategica per innovazione, competitività e qualità dei processi industriali. La 132/2025 non si limita a disciplinare l’intelligenza artificiale in modo generale, ma individua ambiti di applicazione ben precisi, tra i quali:

  • Settore sanitario e disabilità (Art. 7): l’uso dell’IA in ambito sanitario, sia nei processi di diagnosi e cura sia nelle tecnologie a supporto dell’autonomia delle persone con disabilità, richiede livelli elevati di sicurezza, non discriminazione, supervisione professionale e tutela dei diritti dei pazienti.
  • Ricerca scientifica e sperimentazione biomedica (Art. 8): un ulteriore ambito regolato riguarda la ricerca biomedica: l’articolo 8 disciplina l’impiego dell’IA all’interno di progetti di ricerca e sperimentazione condotti da istituzioni sanitarie e enti scientifici senza fini di lucro, definendo criteri rigorosi per il trattamento dei dati e la conduzione delle attività.
  • Mondo del lavoro e sicurezza sul lavoro (Art. 11): l’articolo 11 introduce obblighi per i datori di lavoro, diritti specifici per i lavoratori, limiti alla sorveglianza algoritmica e requisiti di trasparenza e supervisione umana, con un chiaro collegamento alla sicurezza e alla prevenzione nei luoghi di lavoro.
  • Settore della Pubblica Amministrazione (Art. 14): la legge si applica anche al settore della pubblica amministrazione, dove l’intelligenza artificiale ha un ruolo puramente strumentale: le decisioni restano sempre assunte da una persona fisica, che mantiene la piena responsabilità del procedimento.
  • Settore della giustizia e dell’attività giudiziaria (Art. 15): nel settore giudiziario l’uso dell’AI è ammesso solo come strumento di supporto: ogni decisione sull’interpretazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti resta riservata al magistrato. La norma prevede inoltre specifiche attività di formazione per magistrati e personale amministrativo, volte a garantire competenze digitali e consapevolezza sui benefici e sui rischi dell’IA nel sistema giudiziario.

PRINCIPI GENERALI DELLA LEGGE N. 132/2025 SULL’INTELLIGENZA ARTIFICIALE

La Legge 23 settembre 2025, n. 132, si fonda su una serie di principi generali che guidano la progettazione, lo sviluppo e l’utilizzo dell’intelligenza artificiale in Italia. Tra i più rilevanti per il mondo del lavoro:

  • Approccio antropocentrico: la legge stabilisce che l’IA deve essere progettata e utilizzata in modo da rispettare la dignità umana, i diritti fondamentali, la salute e la sicurezza delle persone.
  • Trasparenza e comprensibilità: i sistemi di IA devono essere spiegabili nelle loro logiche essenziali. I lavoratori devono poter comprendere come e perché un algoritmo prende determinate decisioni.
  • Affidabilità, tracciabilità e sicurezza dei sistemi: la legge richiede che i sistemi basati su IA siano affidabili, verificabili, monitorabili e corredati da adeguata documentazione tecnica.
  • Responsabilità umana e supervisione continua: l’essere umano deve poter intervenire, sospendere, contestare o correggere in ogni momento l’azione dell’IA. L’IA non può sostituire la responsabilità decisionale dell’uomo, in particolare negli aspetti che riguardano la sicurezza sul lavoro.
  • Prevenzione di bias e discriminazioni: la legge vieta l’adozione di sistemi di IA che possano produrre discriminazioni in ambito lavorativo, formativo o organizzativo.

Questi principi, validi in senso generale per tutte le applicazioni dell’IA, assumono particolare rilevanza quando la tecnologia è impiegata in processi decisionali che incidono sulla salute, sulla sicurezza o sui diritti del lavoratore.

QUALI OBBLIGHI HA IL DATORE DI LAVORO NELL’USO DELL’IA SECONDO LA LEGGE 132/2025?

La Legge 132/2025 contiene riferimenti specifici sull’uso dell’intelligenza artificiale nel lavoro, introducendo obblighi diretti e vincolanti a carico del datore di lavoro in merito alla trasparenza, informazione e tutela dei lavoratori coinvolti in processi o attività in cui siano presenti sistemi di IA.

Gli obblighi per ogni datore di lavoro che utilizza sistemi di intelligenza artificiale si articolano su più livelli:

  1. Informare preventivamente il lavoratore sull’uso dell’IA

Prima che un lavoratore interagisca con sistemi di IA, l’azienda deve comunicare in modo chiaro:

  • che il sistema è basato su IA;
  • quali funzioni svolge;
  • quali decisioni o attività influenza;
  • quali dati raccoglie, utilizza o elabora;
  • quali rischi o limitazioni comporta il suo funzionamento.

Ai sensi dell’art. 1-bis del D.Lgs. 152/97 (come previsto dall’art. 11 della Legge 132/2025), il lavoratore deve ricevere tali informazioni per iscritto e almeno 24 ore prima di qualunque modifica significativa al sistema o ai processi in cui esso è integrato.

  1. Garantire trasparenza sulle decisioni automatizzate

Il lavoratore ha diritto di conoscere:

  • se l’IA prende decisioni che lo riguardano (es. organizzazione del lavoro, valutazione delle performance, sicurezza operativa);
  • la logica generale su cui si basa il sistema;
  • le misure previste per evitare errori, distorsioni o discriminazioni.
  1. Prevedere un intervento umano sempre possibile 

    intelligenza-artificiale-sicurezza-lavoro-prima-legge-italiana-applicazioni

Il datore di lavoro deve assicurare che il lavoratore possa:

  • chiedere un controllo umano sulle decisioni automatizzate;
  • contestare valutazioni o azioni generate dal sistema di IA;
  • rivolgersi al proprio superiore quando ritiene che il sistema generi effetti ingiusti o pericolosi.

Questo principio estende quanto già previsto dall’art. 22 del GDPR , riconoscendo la centralità della supervisione umana.

  1. Formare i lavoratori sull’uso dell’IA

Tutti coloro che utilizzano l’Intelligenza Artificiale devono ricevere una formazione che sia specifica, comprensibile, documentata e proporzionata al livello di rischio.

  1. Tutelare i lavoratori contro discriminazioni, bias e sorveglianza eccessiva

La nuova legge vieta l’uso dell’IA che:

  • Produca discriminazioni di lavoratori o gruppi di lavoratori;
  • Raccolga dati in modo sproporzionato;
  • Realizzi forme di controllo automatizzato non conformi al GDPR e allo Statuto dei Lavoratori.

COME DEVONO ESSERE INFORMATI I LAVORATORI SULL’USO DELL’IA IN AZIENDA?

Secondo la Legge 132/2025, il datore di lavoro deve:

  • comunicare in modo chiaro e comprensibile quali sistemi di IA vengono utilizzati;
  • specificare finalità, logiche di funzionamento e limiti dei sistemi;
  • indicare come vengono utilizzati i dati personali e le informazioni raccolte attraverso l’IA;
  • garantire sessioni di formazione mirata sui rischi e sulle interazioni operative;
  • informare circa le possibilità di intervento umano, segnalazione anomalie, diritto di contestare decisioni algoritmiche.
  • adottare misure tecniche e organizzative che permettano l’“human-in-command”: l’uomo deve sempre poter intervenire per correggere, sospendere o fermare l’azione del sistema IA.
     

Questi obblighi si aggiungono a quelli previsti dal D.Lgs. 81/2008 in materia di informazione, formazione e addestramento dei lavoratori.

L’OSSERVATORIO NAZIONALE SULL’INTELLIGENZA ARTIFICIALE (ART. 12)

La Legge 132/2025, con l’art.12, prevede l’istituzione di un Osservatorio nazionale sull’intelligenza artificiale, concepito come organismo tecnico con funzioni di monitoraggio continuativo sullo sviluppo, sull’impiego e sull’impatto dei sistemi di IA nei diversi settori pubblici e privati. L’Osservatorio raccoglie dati, elabora analisi periodiche e contribuisce all’individuazione dei rischi emergenti connessi all’uso dell’IA, offrendo pareri tecnici a supporto del Governo nella definizione e nell’aggiornamento della strategia nazionale. Tra i suoi compiti rientrano anche la valutazione degli aspetti etici, sociali, economici e di sicurezza derivanti dall’adozione dei sistemi di IA, con l’obiettivo di orientare politiche pubbliche coerenti e basate su evidenze.

INTELLIGENZA ARTIFICIALE NELLE PROFESSIONI INTELLETTUALI

L’articolo 13 della nuova legge intelligenza artificiale italiana disciplina l’impiego dell’intelligenza artificiale nell’ambito delle professioni intellettuali, stabilendo che i sistemi di IA possano essere utilizzati esclusivamente come strumenti di supporto e mai in sostituzione dell’attività cognitiva, valutativa e interpretativa tipica della prestazione professionale. L’intervento dell’IA deve rimanere subordinato e strumentale rispetto al lavoro intellettuale del professionista, che conserva la piena responsabilità dell’elaborazione e del contenuto dell’opera svolta. Per garantire il rapporto fiduciario tra professionista e cliente, la legge richiede inoltre che il professionista informi il destinatario della prestazione in modo chiaro, semplice e completo circa i sistemi di IA impiegati, assicurando trasparenza e comprensibilità nell’uso degli strumenti tecnologici che possono influire sul processo professionale.

PER APPROFONDIRE…

Per una panoramica dei corsi di formazione disponibili e per capire meglio quale sia il percorso più adatto alle tue esigenze, leggi l'approfondimento "Corsi sull'intelligenza artificiale: come scegliere il percorso formativo più adatto alle tue esigenze".

Articoli correlati
HAI UN DUBBIO SU UN TERMINE
UTILIZZATO IN QUESTO ARTICOLO?

Trova la risposta nel nostro Glossario, la prima raccolta di tutti gli acronimi e termini tecnici utilizzati in materia di Salute e Sicurezza sul Lavoro.


CONTATTACI PER ULTERIORI INFORMAZIONI

Compilando i seguenti campi sarete contattati o riceverete le informazioni richieste nel più breve tempo possibile

* Campi obbligatori

CONSENSO AL TRATTAMENTO DEI DATI PERSONALI AI SENSI DEGLI ARTT. 13 - 14 DEL REGOLAMENTO UE 2016/679
I dati personali saranno trattati come indicato nella nostra informativa sulla privacy, predisposta ai sensi del Regolamento UE 2016/679


Ti potrebbe interessare...
Perchè iscriversi
ai nostri corsi?

12 buoni motivi per scegliere i Corsi in aula di Vega Formazione

10 buoni motivi per iscriversi ai Corsi online in elearning di Vega Formazione

FAQ: consulenza
post corso gratuita

Il percorso formativo di Vega Formazione non finisce in aula!

Per tutti i nostri corsisti è disponibile un servizio di consulenza online gratuito!

I nostri docenti ti aspettano per rispondere alle tue domande!

Glossario Salute e
Sicurezza Lavoro

Confuso dalla terminologia tecnica?
Ci pensiamo noi!


Scopri il significato di tutti gli acronimi e i suoi termini tecnici utilizzati in materia di Salute e Sicurezza sul Lavoro.

TESTO UNICO SICUREZZA SUL LAVORO

Il principale riferimento legislativo in Italia

Scarica il documento, scopri la banca dati dedicata e guarda le ultime news sempre aggiornate.