L’Intelligenza artificiale nel recruiting
Recruting, o meglio la ricerca del personale, è al passo coi tempi arricchendosi dell’intelligenza artificiale. Gli algoritmi dell’ai sembrano rendere la ricerca del personale più efficiente. Secondo Maria Rita Fiasco, vicepresidente di Assintec Assinform, fondatrice e presidente del Gruppo Pragma, afferma che gli algoritmi possono valutare enormi volumi di curricula per trovare, in base ad esperienze e specifiche capacità, i candidati migliori.
«La tecnologia oggi può aiutare nell’ottimizzazione della ricerca dei candidati, nell’estrapolare automaticamente dati da documenti destrutturati come i CV, nell’usare l’analisi semantica per individuare cluster di candidati, scrivere gli annunci, suggerire candidati simili. Tutte attività che, se svolte manualmente su grandi quantità di candidature, comportano una mole di tempo assai considerevole», commenta Maria Rita Fiasco.
Ovviamente vi sono dei rischi nell’utilizzo, in particolar modo se non supervisionato. I rischi interessano le possibili discriminazioni o i pregiudizi utilizzati nelle scelte dagli algoritmi. Maria Rita Fiasco afferma che si sta lavorando molto su questo aspetto, cercando di introdurre «metodologie che aiutano a “depurare” da quegli elementi distorsivi introdotti dai bias. Teniamo presente anche che il settore informatico è ancora largamente dominio maschile, il tema dei bias incrocia il tema del gender gap in ambito Stem. È come quando le leggi vengono fatte solo da uomini. Il tema è culturale, prima ancora che tecnologico. In fondo la tecnologia fa quello che noi chiediamo a lei di fare».
Cosa sono i bias?
Si tratta di una forma di distorsione della valutazione causata dal pregiudizio di una determinata cosa. Secondo alcuni studi svolti in Regno Unito, afferma Linda Serra co-founder e Ceo di Work Wide Women, hanno dimostrato come il solo cognome presente sul curriculum vitae che non sia anglofono crei una discriminazione nella selezione dei candidati. Oppure, a livello universale, il giudizio è facilmente alterato dalla presenza di una bella foto. Si è portati ad associare l’aspetto esteriore di una persona alle altre caratteristiche.
«La bellezza, essendo un canone positivo, per quello che viene definito “Effetto Alone”, tende a portare il nostro cervello ad estendere la caratteristica fisica valutata positivamente, ad altre caratteristiche fondamentali in una selezione del personale. Quali ad esempio la precisione, l’affidabilità, la proattività. Una delle soluzioni adottate ad esempio negli Stati Uniti sono le blind interviews che in fase di raccolta dei CV richiedono profili in cui non compaiano elementi che possono dare vita a distorsioni cognitive quali genere, età, cognome e anche il colloquio viene fatto online con webcam spenta. Un’ulteriore risposta sono certamente i sistemi di AI, il problema è che come sappiamo, anch’essi riproducono gli stessi bias propri dell’intelligenza umana», continua Linda Serra.
Si può evitare la presenza di bias nei sistemi di Intelligenza Artificiale?
«Si – aggiunge Linda Serra – creando consapevolezza sul tema in chi sviluppa. Ad esempio, diversificando i team di sviluppo: oggi solo il 12% di chi sviluppa AI, ad esempio, è composto da donne. Finché i team di sviluppo saranno composti dai “Mini-me” sarà difficile evitare la trasmissione di una visione poco diversificata anche nei sistemi di Ai».
Ovviamente, in fase di raccolta e disaggregazione dei dati, bisogna tener conto dei vari terreni di diversità. Ad esempio, rilasciando dei dati più diversificati ed educando i sistemi di selezione a non trattare i cosiddetti “dati minori” come dati di poco conto, ma presi in considerazione a pari merito dei dati con un valore numerico più rilevante. In questo modo, continua Linda Serra, «sicuramente potremo avere un panorama più inclusivo anche nel territorio della AI».
Quali i rischi della “correzione dei dati”?
La correzione dei dati è una fase molto delicata e può essere “un’arma a doppio taglio” se si prende in considerazione la possibilità di modificare l’informazione prodotta. L’Unione Europea sta pubblicando le linee guida per garantire l’affidabilità dei sistemi di AI, trattando il tema della sicurezza e affidabilità dell’intelligenza artificiale.
«“Ethics Guidelines for Trustworthy Artificial” che poi ha dato vita ad ALTAI uno strumento di self-assessment per chi sviluppa i sistemi, sviluppati da un team di esperti sul tema. Da questo punto di vista certamente è necessario che ci sia vigilanza e controllo da parte di organismi che siano in grado di valutare l’affidabilità dei sistemi e questa sembra la direzione presa dall’EU che il 21 aprile 2021 ha proposto il primo Quadro giuridico sull’AI e il nuovo Piano sull’intelligenza artificiale coordinato con gli Stati membri, che ha lo scopo di garantire la sicurezza e i diritti fondamentali delle persone e delle imprese, in tutta l’Unione in tema di adozione dell’intelligenza artificiale. Ormai usiamo sistemi di AI quotidianamente e spesso inconsapevolmente per fare qualunque cosa, dobbiamo poterci fidare sia dei sistemi; sia di chi li sviluppa».
Quanto può essere efficace e quanto potrà semplificare l’utilizzo dell’ai nel lavoro di ricerca del personale? Potrà essere un buon alleato per le Human Resources?