
L'AI che include: quando la tecnologia scopre talenti invisibili
Ma la vera sfida non è quanto velocemente possiamo adottare l’AI. È come la adottiamo. Oggi molte organizzazioni vivono una fase di sperimentazione intensa. Entusiasmo e AI fatigue convivono. Nuovi strumenti nascono ogni mese, spesso frammentati, e devono dialogare tra loro e integrarsi in processi aziendali già esistenti. Processi che, diciamolo chiaramente, non possono essere semplicemente modernizzati aggiungendo un nuovo tool di AI: vanno ripensati in profondità. Siamo davanti a qualcosa di epocale. E ogni rivoluzione tecnologica richiede una parallela evoluzione culturale e manageriale. In Indeed, quando parliamo di AI nel mondo del lavoro, parliamo certamente di produttività, efficienza e nuove opportunità. Ma parliamo con la stessa forza di responsabilità. Perché l’AI applicata al recruiting tocca la vita delle persone, le loro carriere, il loro futuro. Questo impone un livello di attenzione superiore.
Il rischio non è teorico. Gli algoritmi apprendono dai dati che noi esseri umani produciamo. E quei dati contengono inevitabilmente le nostre imperfezioni: stereotipi, squilibri storici, discriminazioni sistemiche. Diversi studi hanno dimostrato che sistemi non adeguatamente progettati possono replicare – e talvolta amplificare – bias legati a genere, etnia, età o background socioeconomico.
Per questo in Indeed abbiamo definito e adottato solidi AI principles, che guidano lo sviluppo dei nostri prodotti e processi. Investiamo in team multidisciplinari – ingegneri, esperti di etica, legali, data scientist – per valutare i rischi, testare i modelli e monitorare costantemente gli output. Utilizziamo dataset quanto più rappresentativi possibile e implementiamo controlli per ridurre il rischio di discriminazioni sistemiche.
C’è poi un rischio meno discusso, ma altrettanto rilevante: il determinismo di carriera. Un sistema basato esclusivamente sul CV o sul comportamento passato di un candidato rischia di incasellarlo per sempre. Un operatore di customer service potrebbe continuare a ricevere solo offerte simili, anche se aspira a un ruolo in marketing o tecnologia. Un’AI responsabile deve invece ampliare le possibilità, non restringerle. Deve saper guardare non solo a ciò che una persona ha fatto, ma anche a ciò che potrebbe fare e desidera fare.
Questo tema è centrale anche dal punto di vista normativo. L’Unione Europea, con l'AI Act, ha classificato i sistemi di AI utilizzati in ambito occupazionale – inclusi quelli per lo screening dei CV – come ad alto rischio. È una scelta che riconosce l’impatto profondo di queste tecnologie sull’equità e sulla coesione sociale. Regole chiare favoriscono innovazione responsabile e rafforzano la fiducia.
Il punto, però, è prima di tutto culturale. L’AI non deve disumanizzare il recruiting. Deve potenziarlo. Le e i recruiter non possono – e non devono – delegare completamente alla macchina il giudizio finale. L’automazione totale non è né auspicabile né appropriata quando si tratta di decisioni che incidono sulla vita delle persone. Il futuro del recruiting sarà sempre più orientato alle competenze e alle preferenze, meno legato a schemi rigidi. Il tradizionale binomio CV più lettera di presentazione sta lasciando spazio a modelli più dinamici, che valorizzano ciò che una persona sa fare e ciò che vuole diventare. Se progettata con cura, l’intelligenza artificiale può diventare uno straordinario abilitatore di inclusione: scoprire talenti non convenzionali, rendere più trasparenti le opportunità, ridurre le barriere di accesso. Ma questo non accade automaticamente. Accade solo se chi sviluppa e utilizza questi strumenti mette equità, trasparenza e responsabilità al centro.
In Indeed crediamo che l’innovazione più potente non sia quella che sostituisce l’essere umano, ma quella che lo mette nelle condizioni di fare scelte migliori. Soprattutto quando si tratta di lavoro.