
L'intelligenza artificiale in azienda: do & don'ts
Secondo un recente rapporto OCSE,1 in Europa l’uso di questi strumenti raggiunge il 79%, poiché ritenuti capaci di migliorare l’efficienza e la qualità delle decisioni manageriali. Persistono però timori sulla loro affidabilità, legati a responsabilità poco chiare, scarsa trasparenza degli algoritmi e possibili effetti sulla salute di lavoratrici e lavoratori.
Questa ambivalenza spiega l’orientamento del legislatore europeo e italiano: l’AI può aumentare produttività e qualità del lavoro, ma solo se governata da adeguate tutele e da un effettivo controllo umano. L’architrave della regolamentazione poggia sull’AI Act2 europeo, primo esempio di regolamentazione ad hoc delle tecnologie di AI, fondata su una logica di rischio multilivello. L’Italia ha invece approvato nel settembre scorso la sua legge sull’AI3, rafforzando con specifiche previsioni l’uso dell’IA specialmente sui luoghi di lavoro.
Da tenere a mente sono in particolare il divieto previsto dall’AI Act di sistemi di riconoscimento delle emozioni nel luogo di lavoro (immaginatevi un sistema che rilevi se si è felici o meno a lavoro, o il livello di stress di un candidato durante un colloquio di lavoro). Ulteriormente, sistemi classificati come ad alto rischio, come in particolare sistemi per l’assunzione o la selezione del personale, nonché i citati strumenti di gestione algoritmica, sono soggetti a specifici obblighi tecnici e organizzativi, nonché di sorveglianza umana.
È proprio nell’esigenza di un utilizzo consapevole dello strumento di AI che la Legge IA prevede dei do specifici lato privacy in capo ai datori e alle datrici di lavoro, come la formazione per lavoratrici e lavoratori (cosiddetta AI literacy). Parallelamente, è anche opportuno integrare la propria documentazione privacy, a partire dall’informativa privacy dei e delle dipendenti e dal registro dei trattamenti, per includere qualsiasi trattamento legato agli strumenti di AI utilizzati.
Inoltre, il datore di lavoro è soggetto ad obblighi informativi verso lavoratrici, lavoratori e rappresentanze sindacali sull’utilizzo di sistemi decisionali o di monitoraggio integralmente automatizzati, nonché alla necessità di predisporre canali appositi per rispondere alle richieste di informazioni di lavoratrici e lavoratori per iscritto entro 30 giorni. In alcuni casi, è anche necessario redigere una valutazione di impatto sui rischi per i diritti fondamentali, la cosiddetta FRIA. Rimane fermo in aggiunta che, qualora l’utilizzo di uno strumento di AI comporti anche un solo potenziale controllo a distanza del personale, restano applicabili le garanzie dello Statuto dei Lavoratori, in particolare le relative procedure di consultazione e autorizzazione di concerto con le rappresentanze sindacali.
Un altro elemento della AI compliance è quello legato alla cybersicurezza. Un sistema di AI può diventare una nuova porta di accesso per infiltrazioni non autorizzate, vulnerabili, incidendo sull’affidabilità delle decisioni e sulla protezione dei dati di lavoratrici e lavoratori. In questo quadro è importante mappare i sistemi AI e governarli tramite regole interne, senza lasciare che l’adozione avvenga in modo frammentato, magari per iniziativa del singolo dipartimento IT. Dall’altro, operativo, un’efficace AI governance aziendale deve essere integrata con privacy e cyber, e non può ridursi a semplici policy sull’uso di ChatGPT.
Infine, per le aziende il vero do forse non è adottare di più l’AI, bensì adottarla in maniera ragionata. Di riflesso, ciò che bisogna assolutamente evitare è pensare di poter frenare l’innovazione o affisarsi a tool poco noti. In un mercato dove l’AI diventa leva competitiva, la compliance non è un freno: è la condizione per poter usare l’algoritmo senza che l’algoritmo finisca per governare l’organizzazione.
- Milanez, A., A. Lemmens and C. Ruggiu (2025), Algorithmic management in the workplace: New evidence from an OECD employer survey, OECD Artificial Intelligence Papers, No. 31, OECD Publishing, Paris. ↩︎
- Regolamento (UE) 2024/1689 ↩︎
- Si tratta della Legge del 23 settembre 2025, n. 132, “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” anche detta “Legge IA”. ↩︎