Intelligenze artificialifuturi

L'intelligenza artificiale in azienda: do & don'ts

L’AI è entrata stabilmente nei processi organizzativi e decisionali delle imprese, spesso in modo silenzioso. Pensiamo al cosiddetto algorithmic management, ossia l’AI a supporto di determinate decisioni manageriali – come stabilire chi debba ricevere un bonus, una formazione o una promozione – oppure utilizzata per monitorare l’attività di lavoratrici e lavoratori
A cura di Giulia Mariuz, Partner, e Valerio Natale, Senior Associate
01 Apr 2026

Secondo un recente rapporto OCSE,1 in Europa l’uso di questi strumenti raggiunge il 79%, poiché ritenuti capaci di migliorare l’efficienza e la qualità delle decisioni manageriali. Persistono però timori sulla loro affidabilità, legati a responsabilità poco chiare, scarsa trasparenza degli algoritmi e possibili effetti sulla salute di lavoratrici e lavoratori.

Questa ambivalenza spiega l’orientamento del legislatore europeo e italiano: l’AI può aumentare produttività e qualità del lavoro, ma solo se governata da adeguate tutele e da un effettivo controllo umano. L’architrave della regolamentazione poggia sull’AI Act2 europeo, primo esempio di regolamentazione ad hoc delle tecnologie di AI, fondata su una logica di rischio multilivello. L’Italia ha invece approvato nel settembre scorso la sua legge sull’AI3, rafforzando con specifiche previsioni l’uso dell’IA specialmente sui luoghi di lavoro.

Da tenere a mente sono in particolare il divieto previsto dall’AI Act di sistemi di riconoscimento delle emozioni nel luogo di lavoro (immaginatevi un sistema che rilevi se si è felici o meno a lavoro, o il livello di stress di un candidato durante un colloquio di lavoro). Ulteriormente, sistemi classificati come ad alto rischio, come in particolare sistemi per l’assunzione o la selezione del personale, nonché i citati strumenti di gestione algoritmica, sono soggetti a specifici obblighi tecnici e organizzativi, nonché di sorveglianza umana.

È proprio nell’esigenza di un utilizzo consapevole dello strumento di AI che la Legge IA prevede dei do specifici lato privacy in capo ai datori e alle datrici di lavoro, come la formazione per lavoratrici e lavoratori (cosiddetta AI literacy). Parallelamente, è anche opportuno integrare la propria documentazione privacy, a partire dall’informativa privacy dei e delle dipendenti e dal registro dei trattamenti, per includere qualsiasi trattamento legato agli strumenti di AI utilizzati.

Inoltre, il datore di lavoro è soggetto ad obblighi informativi verso lavoratrici, lavoratori e rappresentanze sindacali sull’utilizzo di sistemi decisionali o di monitoraggio integralmente automatizzati, nonché alla necessità di predisporre canali appositi per rispondere alle richieste di informazioni di lavoratrici e lavoratori per iscritto entro 30 giorni. In alcuni casi, è anche necessario redigere una valutazione di impatto sui rischi per i diritti fondamentali, la cosiddetta FRIA. Rimane fermo in aggiunta che, qualora l’utilizzo di uno strumento di AI comporti anche un solo potenziale controllo a distanza del personale, restano applicabili le garanzie dello Statuto dei Lavoratori, in particolare le relative procedure di consultazione e autorizzazione di concerto con le rappresentanze sindacali.

Un altro elemento della AI compliance è quello legato alla cybersicurezza. Un sistema di AI può diventare una nuova porta di accesso per infiltrazioni non autorizzate, vulnerabili, incidendo sull’affidabilità delle decisioni e sulla protezione dei dati di lavoratrici e lavoratori. In questo quadro è importante mappare i sistemi AI e governarli tramite regole interne, senza lasciare che l’adozione avvenga in modo frammentato, magari per iniziativa del singolo dipartimento IT. Dall’altro, operativo, un’efficace AI governance aziendale deve essere integrata con privacy e cyber, e non può ridursi a semplici policy sull’uso di ChatGPT.

Infine, per le aziende il vero do forse non è adottare di più l’AI, bensì adottarla in maniera ragionata. Di riflesso, ciò che bisogna assolutamente evitare è pensare di poter frenare l’innovazione o affisarsi a tool poco noti. In un mercato dove l’AI diventa leva competitiva, la compliance non è un freno: è la condizione per poter usare l’algoritmo senza che l’algoritmo finisca per governare l’organizzazione.

  1. Milanez, A., A. Lemmens and C. Ruggiu (2025), Algorithmic management in the workplace: New evidence from an OECD employer survey, OECD Artificial Intelligence Papers, No. 31, OECD Publishing, Paris. ↩︎
  2. Regolamento (UE) 2024/1689 ↩︎
  3. Si tratta della Legge del 23 settembre 2025, n. 132, “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” anche detta “Legge IA”. ↩︎

Registrazione Tribunale di Bergamo n° 04 del 09 Aprile 2018, sede legale via XXIV maggio 8, 24128 BG, P.IVA 03930140169. Impaginazione e stampa a cura di Sestante Editore Srl. Copyright: tutto il materiale sottoscritto dalla redazione e dai nostri collaboratori è disponibile sotto la licenza Creative Commons Attribuzione/Non commerciale/Condividi allo stesso modo 3.0/. Può essere riprodotto a patto di citare DIVERCITY magazine, di condividerlo con la stessa licenza e di non usarlo per fini commerciali.
magnifiercrosschevron-down