
Chi sta progettando il futuro e chi rischia di restarne esclusə?
Iniziamo con una breve presentazione.
Mi occupo di AI come snodo culturale, oltre che come leva di efficienza: ogni rivoluzione tecnologica ridefinisce potere e accesso alle opportunità. Da più di venticinque anni affianco CEO, executive e consigli di amministrazione nei processi di trasformazione tecnologica e organizzativa. Sono Equity Partner di BIP Group e guido il Centro di Eccellenza Human Capital, dove lavoriamo sull’impatto dell’intelligenza artificiale su lavoro, competenze, leadership e disuguaglianze. Oggi il mio lavoro si muove su un confine preciso: aiutare le organizzazioni a integrare l’AI in modo strategico e responsabile, affinché innovazione e inclusione crescano insieme.
Il 27 febbraio è uscito Nessuna fuori dal codice. Da dove nasce l’idea per questo libro?
Nasce da una domanda molto semplice e radicale che ci siamo poste all’inizio del lavoro: c’è oggi bisogno in Italia di un libro su AI e donne? Persino ChatGPT ci ha risposto di sì. Le donne nell’AI sono circa il 22% a livello globale e ancora meno nei ruoli apicali. Il libro nasce dall’urgenza di non lasciare che la più potente tecnologia trasformativa del nostro tempo si sviluppi dentro un immaginario parziale. L’intelligenza artificiale è un game changer: ridefinisce lavoro, potere, linguaggio, rappresentazione. Se le donne restano ai margini della sua progettazione, il rischio è che restino ai margini anche del futuro. Non volevamo scrivere un libro tecnico, ma culturale. Uno strumento per aprire conversazioni tra scuola, impresa, ricerca. Un libro che guarda i divari e prova a indicare una via: trasformare l’AI in un motore di equità.
Quali sono le disuguaglianze che l’AI perpetua?
L’AI non nasce neutrale. Impara da dati storici che riflettono una società già segnata dalla disuguaglianza. Se nei dataset le donne sono sottorappresentate nei ruoli STEM o apicali, gli algoritmi tenderanno a riprodurre quella frequenza come normalità. Il libro racconta diversi livelli di rischio. Quelli più comuni sono i bias nei processi di selezione: tanti sistemi di recruiting che favoriscono candidati maschi, perché addestrati su storici dominati da uomini. Il gender adoption gap riguarda lo scarso numero di donne che usano gli strumenti di AI generativa rispetto agli uomini, con il rischio di un augmentation gap, cioè un divario crescente nelle competenze potenziate. C’è poi l’esposizione occupazionale differenziata, ovvero una quota maggiore di lavori ad alto impiego femminile (come quelli amministrativi) potenzialmente esposta all’automazione rispetto a ruoli manageriali con maggior presenza maschile. Infine, tra le più note, la rappresentazione simbolica distorta: dagli assistenti vocali con voce femminile docile fino agli algoritmi di riconoscimento facciale meno accurati su donne con pelle non bianca, come dimostrato dagli studi citati nel libro.
E in che modo le professioniste di cui lei e Simona Rossitto parlate stanno intervenendo sul problema?
Le donne intervistate nel libro agiscono su tre livelli. Il primo riguarda la presenza e la rappresentanza. Portano competenze tecniche nei team di sviluppo, aumentando la diversità tra data scientist e team di programmazione, condizione necessaria per ridurre il rischio di pregiudizi. Poi agiscono nella ridefinizione dell’immaginario. Non chiedono solo più donne nell’AI, ma mettono in discussione il paradigma stesso: che idea di intelligenza stiamo coltivando? Un’intelligenza estrattiva, che classifica ed elimina il rumore, o un’intelligenza relazionale, capace di incorporare dubbio ed empatia? Infine chiedono azioni concrete. Lavorano su dataset più inclusivi, metriche di equità, formazione STEM per le ragazze, mentorship digitale, governance etica. Il libro propone un vero e proprio manifesto di feminist AI: non un’AI contro gli uomini, ma un’AI contro le discriminazioni.
Pensa che sia una possibilità concreta quella di aggiustare il tiro e progettare, d’ora in poi, una tecnologia a priori più inclusiva?
Sì, ma richiede intenzionalità. L’AI può amplificare le disuguaglianze oppure accelerare la parità: dipende da come la progettiamo. Nel libro immaginiamo un 2035 utopico in cui l’AI diventa leva di equità, grazie a governance globale, principi etici condivisi e maggiore rappresentanza femminile. Non è fantasia ingenua: è una direzione possibile. Gli strumenti esistono già e sono i dataset bilanciati, le policy aziendali trasparenti e ovviamente la formazione diffusa.