Intelligenze artificialidisabilità invisibilidisabilità visibili

AI e DEI: l'illusione della neutralità e il rischio dell'esclusione automatizzata

A cura di Valentina Tomirotti
01 Apr 2026

L’intelligenza artificiale viene spesso raccontata come neutra, oggettiva, razionale. Una tecnologia che ottimizza, supporta, decide meglio. Ma questa narrazione è una comoda finzione. L’AI non nasce nel vuoto: viene progettata, addestrata e governata all’interno di sistemi sociali attraversati da disuguaglianze profonde. Senza un’integrazione reale dei principi di Diversity, Equity & Inclusion, l’AI non riduce le distanze: le rende semplicemente più efficienti.

Gli algoritmi apprendono dai dati, e i dati raccontano chi conta e chi no. Raccontano chi è stato assunto, promosso, rappresentato, ascoltato. Raccontano corpi normativi, percorsi lineari, identità dominanti. Quando questi dataset diventano la base per sistemi di selezione, valutazione o previsione, l’esclusione smette di essere una scelta esplicita e diventa una funzione automatica. Non discrimina qualcuno: discrimina il sistema.

Integrare i principi DEI nello sviluppo dell’AI significa smontare l’idea che l’innovazione sia neutra per definizione. Ogni modello incorpora una visione del mondo: cosa è considerato produttivo, affidabile, meritevole, sicuro. E, di conseguenza, chi viene percepitə come deviante, rischios , non conforme. In questo senso, l’AI non crea nuove discriminazioni: le rende scalabili e difficili da contestare.

Il tema dell’accessibilità è una cartina di tornasole evidente. L’AI viene spesso celebrata come strumento di empowerment per le persone con disabilità, ma troppo spesso l’accessibilità è pensata come una feature opzionale, non come un criterio progettuale. Se una piattaforma è costruita su corpi standard, tempi standard, capacità cognitive standard, l’algoritmo non farà altro che rafforzare quella norma. L’innovazione diventa così un nuovo confine invisibile, mascherato da progresso.

Un approccio davvero DEI-driven all’AI richiede quindi un cambio di paradigma. Non basta ridurre i bias a posteriori. Serve interrogarsi su chi progetta i sistemi, chi seleziona i dati, chi definisce gli obiettivi e chi resta fuori dai processi decisionali. Serve includere prospettive interdisciplinari, competenze sociali, vissuti marginalizzati. E serve riconoscere che non tutto ciò che è tecnicamente possibile dovrebbe essere automatizzato.

A questo si aggiunge un nodo spesso rimosso: il rapporto tra AI, DEI e potere economico. Chi controlla infrastrutture, modelli e flussi di dati decide anche quali vite meritano attenzione e quali possono essere ignorate. Quando l’innovazione è guidata solo da logiche di mercato, l’inclusione diventa un costo da comprimere. Integrare i principi DEI nello sviluppo dell’AI significa allora rimettere in discussione priorità, metriche di successo e criteri di valutazione, spostando il focus dall’efficienza alla giustizia sociale.

C’è poi una dimensione simbolica spesso trascurata. I modelli di AI generativa non si limitano a rispondere: producono immaginari, definiscono ciò che è dicibile e desiderabile. Se addestrati su narrazioni dominanti, finiscono per normalizzarle, silenziando esperienze non conformi. Anche così si esercita il potere: decidendo chi viene raccontat e chi resta fuori dal discorso.

Per le aziende, tutto questo implica una responsabilità che non può essere delegata alla tecnologia. Andare oltre la retorica dell’innovazione significa dotarsi di reali sistemi di governance dell’AI, audit sui bias, trasparenza sulle decisioni automatizzate e formazione continua. Perché l’efficienza senza equità non è innovazione: è accelerazione delle disuguaglianze. La domanda finale, allora, non è se l’AI possa essere inclusiva. La domanda è se siamo dispostə a rinunciare a una parte del potere che l’automazione promette, per costruire sistemi più giusti. Integrare i principi DEI nello sviluppo delle soluzioni di AI non è una scelta reputazionale. È una scelta politica. E, come tutte le scelte politiche, dice chiaramente da che parte si decide di stare.

Registrazione Tribunale di Bergamo n° 04 del 09 Aprile 2018, sede legale via XXIV maggio 8, 24128 BG, P.IVA 03930140169. Impaginazione e stampa a cura di Sestante Editore Srl. Copyright: tutto il materiale sottoscritto dalla redazione e dai nostri collaboratori è disponibile sotto la licenza Creative Commons Attribuzione/Non commerciale/Condividi allo stesso modo 3.0/. Può essere riprodotto a patto di citare DIVERCITY magazine, di condividerlo con la stessa licenza e di non usarlo per fini commerciali.
magnifiercrosschevron-down