Torniamo a parlare del problematico rapporto tra intelligenza artificiale e discriminazione, questa volta nel contesto lavorativo.
L’impiego dell’intelligenza artificiale nel processo di selezione dei candidati sta diventando sempre più comune. Dal punto di vista aziendale si tratta di destreggiarsi tra potenzialmente migliaia di informazioni alla ricerca della combinazione più efficace e conveniente. In altre parole: un processo davvero dispendioso in termini di risorse. Quindi perché non delegare l’infausto compito a software che possono macinare milioni di dati in pochi secondi?
A questo proposito un recente esperimento condotto da Bloomberg ha sollevato una questione preoccupante sull’equità di tali sistemi. Secondo lo studio, ChatGPT avrebbe mostrato segni di discriminazione nei confronti dei candidati basandosi unicamente sui nomi presenti nei curriculum.
Discriminazione 4.0
Nell’esperimento sono stati creati diversi CV, modificando solo i nomi dei candidati per riflettere diverse identità di genere ed etniche. Chat GPT è stato poi incaricato di classificarli per diverse posizioni lavorative, ripetendo il processo mille volte. I risultati hanno rivelato come alcuni gruppi erano sistematicamente posizionati in fondo alla lista, mentre altri venivano favoriti, a seconda del tipo di lavoro.
Per esempio, nei ruoli di risorse umane, i CV con nomi di donne ispaniche e asiatiche tendevano a essere collocati in cima alla lista, mentre quelli di uomini bianchi erano raramente considerati. Nelle posizioni di commessi, i nomi di uomini bianchi erano generalmente classificati più in basso, con una preferenza per le donne asiatiche. Invece, nel ruolo di analisti finanziari, i candidati con nomi associati a persone nere finivano spesso più in basso nella classifica.
Non un caso isolato
Questi risultati sollevano ancora una volta questioni etiche riguardo all’uso dell’AI. Sebbene l’intento in questo caso sia quello di ridurre il carico di lavoro, migliorando l’obiettività della ricerca ed evitando errori dovuti ai bias degli addetti alla selezione, i dati utilizzati per addestrare i sistemi contengono pregiudizi impliciti che rispecchiano le disuguaglianze esistenti. Se non adeguatamente monitorata e regolata, l’AI non fa altro che replicare e potenzialmente amplificare le già ben note storture umane.
Di improbabili esiti dovuti a un erroneo settaggio del sistema ne avevamo già avuto esempi con Google Gemini che, una volta integrata la generazione di immagini, rendeva tutti i risultati inclusivi aggiungendo donne o persone nere ovunque, anche in contesti in cui storicamente non erano presenti con effetti davvero divertenti. Ma quando si parla di possibilità di essere o meno assunti per un incarico lavorativo le cose si fanno decisamente meno ilari.
Il problema c’è e la soluzione è tutt’altro che semplice come si evince da questo tentativo, fallimentare e bislacco, di porvi rimedio. Come per i curricula in esame, anche la generazione di immagini si fonda infatti su un addestramento su milioni di immagini legate a rappresentazioni stereotipate, sessiste, razziste e omotransfobiche.
Il problema: i dati
I dati sono al centro di ogni discorso sulle problematiche dell’intelligenza artificiale. Una macchina, per quanto sembri intelligente, non inventa nulla, non si adatta in autonomia ai tempi che cambiano: una macchina mangia dati e sputa risultati figli di quelle informazioni.
Se viene addestrata con pratiche discriminatorie, sia storiche che attuali, perpetra questi stessi schemi con l’aggravante di apparire neutrale o oggettiva. È così che un dataset con una scarsa rappresentazione di certi gruppi etnici in posizioni lavorative di alto livello potrebbe portare l’AI a concludere erroneamente che siano meno adatti a questi ruoli.
La risposta: l’umano dietro la macchina
Per mitigare i rischi di una nuova era della discriminazione automatizzata bisognerebbe adottare un approccio complesso riassumibile in due parole: formazione umana.
Innanzitutto, le aziende che sviluppano e implementano sistemi di IA dovrebbero operare con la massima trasparenza, rendendo noti i criteri e i dati impiegati nell’addestramento. I dataset utilizzati dovrebbero essere anche il più diversificati e inclusivi possibile, in modo da riflettere una vasta gamma di profili senza pregiudizi pregressi.
È inoltre necessario che questi sistemi siano soggetti a controlli periodici effettuati da entità indipendenti, per certificare l’assenza o la correzione di eventuali bias. Parallelamente i progettisti e sviluppatori dovrebbero ricevere una formazione adeguata riguardo i potenziali errori e le modalità per evitarli.
Infine, potrebbe rendersi necessario l’intervento normativo per imporre regolamentazioni più stringenti sull’uso dell’IA nel processo di selezione dei candidati, garantendo il rispetto dei principi di equità e non discriminazione. Solo attraverso un impegno congiunto è forse possibile garantire un reclutamento capace di creare un ambiente lavorativo realmente inclusivo.
Progresso a doppia velocità
L’AI offre indubbi vantaggi nella gestione dei processi, ma il rischio di perpetuare discriminazioni preesistenti non deve essere sottovalutato. L’esperimento di Bloomberg funge da campanello d’allarme, richiamando l’attenzione sulla necessità di approcci più responsabili e consapevoli nello sviluppo e nell’implementazione delle tecnologie.
Saremmo degli sprovveduti a lasciare nelle mani di una macchina che neanche i progettisti sanno ben spiegare come operi scelte così rilevanti. Se desideriamo provare a far sì che il progresso tecnologico avanzi di pari passo con quello sociale dobbiamo ripensare al modo in cui siamo programmati e programmiamo. I rischi altrimenti rischiano di eccedere ampiamente rispetto ai benefici.