INTELLIGENZA ARTIFICIALE E INCLUSIONE, DUE UNIVERSI COMUNICANTI

Il progetto di Edge

a cura della Redazione


EDGE nasce il 17 maggio 2012, nella giornata internazionale contro l’omofobia, la bifobia e la transfobia. L’associazione ha come mission la crescita personale e professionale delle persone LGBTIQ+ e i suoi alleati. Da dieci anni lavora in prima persona per rendere i luoghi di lavoro più inclusivi e per fare in modo che istituzioni, organizzazioni e aziende diano più spazio ai valori della diversità e dell’equità. L’11 giugno 2022, a Roma, EDGE ha festeggiato il decennale con il convegno “L’inclusione delle persone LGBTIQ+ per lo sviluppo sostenibile dell’Italia di dieci anni in dieci anni”.

Dott.ssa Galli, partiamo dalle basi: cos’è l’intelligenza artificiale?

Definirei l’intelligenza artificiale come una delle tecnologie abilitanti, driver della digital trasformation, che apprende dai dati e viene utilizzata per modellare fenomeni complessi: parliamo di Machine Learning, Deep Learning e Reti Neurali. Gli algoritmi elaborano enormi quantità di dati ed è fondamentale la loro Governance. Possiamo parlare oggi di vere e proprie “tecnologie dell’informazione”: in Italia sono tra gli 11 punti considerati prioritari dal Programma Strategico per l’Intelligenza Artificiale 2022-2024 del Governo. Un esempio di IA virtuosa è l’app MirrorHR che aiuta a gestire gli attacchi di epilessia in modo tempestivo. È stata creata da Roberto D’Angelo (con cui ho lavorato in Microsoft), Microsoft Director e Co-Founder con Francesca Fedeli della fondazione FightTheStroke, che supporta i giovani sopravvissuti all’ictus e alla paralisi cerebrale infantile. MirrorHR usa l’intelligenza artificiale di Microsoft Azure per prevenire gli attacchi epilettici ed evitare il pronto soccorso. L’IA è una tecnologia che può aiutarci a rendere il nostro pianeta più intelligente, più salubre e florido, a patto che sia costruita intorno ai valori e ai bisogni di noi esseri umani.

Artificial Intelligence e Inclusione: sono due mondi separati o comunicanti?

Devono essere necessariamente comunicanti. La Legge zero della robotica scritta da Asimov, afferma “Un robot non può recare danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno”. Proviamo a sostituire il termine robot ed inserire “intelligenza artificiale”? Le esigenze delle persone devono essere tenute in considerazione affinché possano beneficiare dell’IA e siano date le migliori condizioni possibili per esprimersi e svilupparsi, favorendo la partecipazione sociale e includendo – sempre – le categorie più deboli. Mi viene in mente, a questo proposito, il manifesto “Rome Call for AI Ethics”, firmato nel 2020 da Governo italiano, Vaticano, FAO, Microsoft e IBM, dove l’inclusione è indicata come uno dei 6 principi fondanti per lo sviluppo di un’IA.

L’Intelligenza artificiale e machine learning pongono nuove sfide etiche e di contrasto alle discriminazioni?

Sì, il tema si sta facendo strada anche in Italia, grazie anche alla pubblicazione del Libro bianco sull’IA nel 2020 e alle proposte della Commissione Europea, il cui obiettivo è garantire che le soluzioni algoritmiche siano trasparenti, etiche, imparziali, sicure e governabili dall’essere umano. Anche il Parlamento europeo, quest’anno, ha adottato le raccomandazioni della “Commissione Speciale sull’intelligenza artificiale nell’era digitale”. Gli algoritmi non sono neutrali e possono amplificare gli effetti di bias e stereotipi. Bisogna potenziare le buone pratiche di benessere sociale dell’IA: oggi si parla di algoretica, che indaga sui problemi etici creati dagli algoritmi per evitare che si riproducano discriminazioni a sfavore della collettività.

Edge ha dato vita al progetto “A+I Algoritmi+Inclusivi”. Di cosa si tratta?

Desideriamo contribuire alle nuove sfide etiche e di contrasto alle discriminazioni che pone l’IA assumendo come lente d’ingrandimento i bias nei confronti delle persone LGBTIQ+. Lo scorso anno, insieme a Mario Di Carlo presidente di EDGE, Damiano Terziotti – con me nel board della nostra associazione e il socio Luca Trevisan, abbiamo dato vita al progetto A+I Algoritmi+Inclusivi. L’obiettivo è quello di tenere alta l’attenzione di chi produce e sviluppa i servizi e sistemi di IA, così come di chi li acquista e di chi li usa, sul rischio di incorporare bias e amplificarne gli effetti.

Si è iniziato con una ricerca multidisciplinare incentrata sul binomio Machine Learning – discriminazione delle persone LGBTIQ+: con il supporto di The Fab Lab, sono state realizzate delle interviste ad esperte/i di differenti ambiti del mondo accademico (data science, diritto, sociologia, …), del business e delle istituzioni, facendo emergere i punti di attenzione per uno sviluppo etico dell’IA. Da quest’indagine è stato prodotto un primo report. “A+I Algoritmi+Inclusivi” è il nome, ideato dalla mia agenzia, capace di tradurre le parole dell’intelligenza artificiale in un linguaggio più inclusivo. Ho coinvolto l’Istituto Europeo di Design, con i professori Liuzzo e Salomoni, per studiarne il logo, il cui simbolo si ispira al cubo di Rubik.

A fine giugno scorso si è tenuto presso l’Università Bocconi di Milano il workshop “Fairness in Artificial Intelligence”, organizzato dal professore Trevisan del Dipartimento di Scienze della Computazione della Bocconi, insieme alla nostra associazione. È stato un momento di confronto tra la comunità scientifica, le imprese e le istituzioni e un’eccellente occasione per iniziare a mettere a sistema il contributo che i diversi saperi possono dare alla ricerca di soluzioni di algoritmi inclusivi. Stiamo pianificando l’agenda dell’evento pubblico di lancio del progetto A+I (con il supporto di AixiA – Associazione italiana per l’intelligenza Artificiale) e realizzando, in parallelo, una serie di tools di comunicazione, come video e podcast (Vodcast), per divulgare gli esiti della ricerca e contribuire ad aumentare la consapevolezza riguardo ai meccanismi di funzionamento dell’IA.

Che ruolo gioca il linguaggio nel vostro progetto?

Un ruolo importante. Una parte dell’IA è legata al linguaggio ed il linguaggio è un potente veicolo di bias. Le discriminazioni nei confronti delle persone LGBTIQ+ vengono spesso amplificate nella traduzione e nella produzione automatizzata di testi. Per il progetto A+I si è guardato anche al Natural Language Processing – NLP. Stiamo seguendo i lavori di Dirk Hovy, Associate Professor e di Debora Nozza, Assistant Professor, dell’Università Bocconi: gli interessi della ricerca si concentrano sull’individuazione e il contrasto dell’incitamento all’odio e dei pregiudizi algoritmici in un contesto multilingue e sull’analisi dei bias sistemici.

Se è vero che gli algoritmi tenderanno sempre di più ad indurre le nostre decisioni, cosa possono fare le aziende per evitare ogni possibile discriminazione?

Negli ultimi anni le istituzioni e governi hanno iniziato a sviluppare linee guida in merito alla Governance dell’IA. Questo trend ha coinvolto anche le aziende. Alcune imprese si stanno già interrogando e lavorando sulle questioni etiche legate agli algoritmi e ai rischi discriminatori. Sono ancora troppo poche anche se, a breve, questi temi avranno un rilevante impatto legale e finanziario.

Come ognuno di noi con la propria intelligenza può influire positivamente sui meccanismi dell’intelligenza artificiale? È possibile per ciascuno contribuire al cambiamento?

Mi piacerebbe che si abbracciasse la pratica dell’Anticipazione (è il campo di ricerca che si concentra sui comportamenti anticipanti, in cui i futuri entrano nel processo decisionale) con il sistema della “Comunità di Pratica di futuro – CPFO”: questi metodi offrono la possibilità di indagare quelle che i miei partner di -skopìa chiamano “incertezze autentiche”, che consentono di influenzare ciò che avverrà nell’ambito dell’intelligenza artificiale. Possiamo contribuire al cambiamento riportando al centro l’essere umano, con i propri bisogni e i propri obiettivi, personali, sociali ed etici.


Alessandra Galli, Communication designer, Managing director e Founder, dal 1995, dell’agenzia creativa Arsenico. Skill coach, con focus sul “Developing Anticipatory Thinking”. Ghost-writer specializzata in tecnologia, robotica e intelligenza artificiale. Socia dell’Associazione Italiana  per l’Intelligenza Artificiale (AIxIA). Consigliera nel direttivo dell’associazione EDGE | LGBTI+ LEADERS FOR CHANGE

Spread inclusion all around the globe

Author: administer