Intelligenze artificialietnie e culturepersone

L'intelligenza artificiale? «È una questione di potere, non solo di tecnologia»

I dati non sono neutrali e tendono a rafforzare gerarchie esistenti. E a subirne le spese sono soprattutto le persone povere, le minoranze e le donne. Intervista a Ivana Bartoletti, esperta di governance dell’AI e diritti digitali: «Un approccio femminista aiuta a intervenire su queste dinamiche»
A cura di Antonella Patete
01 Apr 2026

«Quando si parla di AI non si parla solo di tecnologia, ma si parla soprattutto di potere. Perché chi decide dati, obiettivi e regole di un sistema decide anche chi viene visto, valutato e premiato». Per Ivana Bartoletti, vicepresidente e responsabile globale per la privacy e la governance dell’AI di Wipro, i dati non sono mai neutrali e a pagarne il prezzo più alto sono sempre le minoranze, tra cui ovviamente le donne. «La tecnologia incorpora delle scelte: quali categorie usare, cosa misurare, quale normalità assumere. Poiché i dati riflettono società diseguali, l’AI tende a rafforzare gerarchie esistenti: accesso ai servizi, credito, lavoro, visibilità online. Le persone con meno potere – donne, minoranze, in povertà – subiscono più errori, sorveglianza ed esclusioni e hanno meno strumenti per contestarli», afferma Bartoletti, professionista riconosciuta a livello internazionale per il suo contributo al dibattito su tecnologia diritto e società, che ha fondato il network Women Leading in AI ed è autrice di vari volumi sul rapporto che l'intelligenza artificiale ha con l'etica, la politica e la finanza.

Dottoressa Bartoletti, nelle ultime settimane Grok, l’AI integrata nella piattaforma X, ha fatto molto parlare per la diffusione di deepfake sessuali riguardanti donne ma anche minori. È un fenomeno più diffuso di quello che sembra, ci sono altri casi simili? E quali sono gli strumenti messi in campo per combattere la violenza digitale nei confronti del sesso femminile?
Il caso Grok ha reso visibile un fenomeno già diffuso: la produzione di immagini intime non consensuali con AI (deepfake e nudify), che colpisce soprattutto donne e ragazze e può coinvolgere minori. Grok ha continuato a generare immagini sessualizzate senza consenso e sono partite indagini nel Regno Unito, in Francia e a livello UE. Gli strumenti di contrasto includono reati specifici e aggravanti, obblighi di rimozione rapida e tracciabilità, age-verification per funzioni a rischio, watermarking e provenienza dei contenuti, ban dei modelli nudify, canali di segnalazione e supporto alle vittime.

Lei ha detto anche che l’intelligenza artificiale non è mai neutrale. Può raccontarci qualche esperienza in cui i bias negli algoritmi hanno prodotto ingiustizie o esclusioni e come un approccio femminista può cambiarle?
Esempi ricorrenti sono software di selezione del personale che penalizzano CV femminili perché addestrati su storici di assunzioni maschili, sistemi di riconoscimento facciale meno accurati su donne e persone non bianche, con rischi di controlli ingiustificati, modelli sanitari che sottostimano dolore o rischio cardiovascolare nelle donne perché i dati clinici storici sono sbilanciati. Un approccio femminista cambia il processo: analizza chi beneficia e chi rischia, rende visibili le asimmetrie nei dati, impone valutazioni d’impatto e auditing indipendenti, coinvolge gruppi colpiti nel design e privilegia accountability e diritti, non solo performance.

Per fortuna negli ultimi tempi non si è parlato solo di Grok, ma anche di AfroféminasGPT. Di che si tratta esattamente e come questa iniziativa può cambiare il modo di “pensare” dell’AI?
AfroféminasGPT è una GPT costruita dall’attivismo afrofemminista (legata al progetto Afroféminas) per correggere il punto di vista dominante dei chatbot generalisti: è addestrata/curata con fonti decoloniali e antirazziste e tende a definire il razzismo come sistema di potere, non come semplice pregiudizio individuale. In pratica mostra che l’AI non “pensa” in astratto: risponde secondo l’archivio di testi e valori incorporati. Iniziative così spingono verso modelli più trasparenti su fonti, governance e finalità, e aprono spazio a dataset curati dalle comunità, non solo da grandi piattaforme.

Molte delle esperienze più interessanti sembrano venire dal cosiddetto Sud globale. È realmente così?
Sì, molte innovazioni arrivano dal Sud globale, soprattutto su linguaggio, moderazione e usi civici: lì i danni da automazione importata (bias linguistici, esclusione digitale, sorveglianza) sono immediati e quindi cresce la spinta a soluzioni contestuali. Inoltre, la pluralità di lingue e dialetti costringe a ripensare dataset e metriche. Reti di attivismo femminista e antirazzista sperimentano strumenti propri, mentre l’adozione mobile e informale favorisce prototipi leggeri e open-source. Non è romanticismo: spesso è innovazione guidata dalla necessità e grande competenza sociale sul problema. Pensiamo per esempio all’India, un paese multiculturale, un enorme talent hub mondiale e una grande potenza economica.

C’è qualche argomento importante che non abbiamo affrontato?
Sì, c’è un ultimo punto fondamentale: il femminismo parla di potere e l’intelligenza artificiale non è solo tecnologia, ma potere anch’essa. Potere di ridisegnare il mondo, il mercato del lavoro e gli equilibri geopolitici. Potere di decidere cosa vediamo, chi ottiene risorse, servizi o opportunità attraverso sistemi algoritmici. Potere di cristallizzare o trasformare la realtà, traducendo disuguaglianze sociali in codice e software. Un approccio femminista all’AI significa intervenire su queste dinamiche di potere: garantire maggiore diversità non solo tra chi scrive il codice, ma soprattutto nei luoghi in cui si prendono decisioni sull’AI, dalla politica ai consigli di amministrazione delle imprese tecnologiche. Senza questo spostamento di potere, parlare di etica resta insufficiente.

Registrazione Tribunale di Bergamo n° 04 del 09 Aprile 2018, sede legale via XXIV maggio 8, 24128 BG, P.IVA 03930140169. Impaginazione e stampa a cura di Sestante Editore Srl. Copyright: tutto il materiale sottoscritto dalla redazione e dai nostri collaboratori è disponibile sotto la licenza Creative Commons Attribuzione/Non commerciale/Condividi allo stesso modo 3.0/. Può essere riprodotto a patto di citare DIVERCITY magazine, di condividerlo con la stessa licenza e di non usarlo per fini commerciali.
magnifiercrosschevron-down