C’è chi pensa che l’intelligenza artificiale sia solo fantascienza, roba da film o da esperti di computer.
E invece da ottobre è legge. In Italia. E riguarda tutti.
Anche chi lavora in un ufficio, in un negozio, in un’azienda, in uno studio professionale.
Non è un futuro lontano: è adesso.
E chi non si adegua, rischia.
COS’È LA LEGGE 132/2025
La Legge 23 settembre 2025 n. 132, in vigore dal 10 ottobre 2025, stabilisce le regole per usare l’intelligenza artificiale (IA) in modo sicuro, trasparente e rispettoso della persona.
In parole semplici, serve a evitare che le macchine — o meglio, i programmi — prendano decisioni che incidono sulla vita delle persone senza controllo umano.
Si ispira all’AI Act europeo, cioè il regolamento dell’Unione Europea che disciplina come possono essere progettati e usati i sistemi di IA.
L’obiettivo è chiaro: l’IA deve aiutare le persone, non sostituirle o danneggiarle.
COS’È UN SISTEMA DI INTELLIGENZA ARTIFICIALE
Per la legge, un “sistema di IA” è un software che analizza dati e produce risultati o decisioni, anche in modo autonomo: può consigliare, classificare, selezionare, raccomandare o decidere.
E può farlo nel lavoro, nella scuola, nella sanità, nella pubblica amministrazione.
Insomma, non è solo un robot: è qualunque algoritmo che prende decisioni o fa previsioni al posto dell’uomo.
L’ARTICOLO 11: L’IA NEL MONDO DEL LAVORO
È qui che la legge tocca la vita reale.
L’articolo 11 dice che l’intelligenza artificiale può essere usata nel lavoro solo se rispetta la dignità umana, la sicurezza e la riservatezza dei lavoratori.
E introduce un obbligo preciso per datori di lavoro, studi professionali e aziende: devono informare per iscritto i lavoratori e i candidati quando usano l’intelligenza artificiale nei processi di selezione, gestione o valutazione.
Significa che se un datore di lavoro utilizza programmi per analizzare i curriculum, valutare le prestazioni o assegnare turni, ha l’obbligo legale di comunicarlo chiaramente.
Non farlo equivale a una violazione vera e propria, con possibili sanzioni e responsabilità.
COSA SIGNIFICA IN PRATICA
Per un’azienda o uno studio professionale, non basta più dire “usiamo un software”.
Bisogna spiegare che tipo di sistema è, cosa fa, quali dati usa e con quale scopo.
Chi lavora deve sapere se e come viene monitorato, anche indirettamente.
Per i professionisti e i datori di lavoro è un cambio di mentalità:
quando si fa una selezione del personale (anche con piattaforme online o questionari automatici), serve un’informativa chiara sull’uso dell’IA;
quando si valutano i dipendenti con sistemi digitali o gestionali intelligenti, va dichiarato;
quando si adottano strumenti che analizzano dati, produttività o presenza, va garantita la trasparenza e la tutela dei dati personali.
COSA RISCHIA CHI NON SI ADEGUA
Ignorare l’obbligo di informativa non è una leggerezza.
Può comportare:
– violazioni della privacy e quindi sanzioni;
– azioni legali da parte dei lavoratori o dei candidati;
– danni d’immagine per mancanza di trasparenza o discriminazione algoritmica.
In più, se l’IA viene usata in modo scorretto o lesivo della dignità dei lavoratori, il datore può essere chiamato a rispondere civilmente o penalmente.
IN SINTESI
La Legge 132/2025 non è una curiosità per giuristi o informatici:
è un segnale chiaro che il mondo del lavoro sta cambiando e che la trasparenza diventa un dovere legale.
Usare l’intelligenza artificiale non è un problema, usarla senza regole sì.
Chi lavora con serietà — imprenditori, professionisti, studi — deve adeguarsi subito, aggiornando le informative e i contratti.
Perché da oggi, la dignità umana non è solo un valore: è una clausola di legge.


