Ilaria Farnè
Il mercato del lavoro europeo mostra segnali promettenti verso una reale parità di genere ma le ricerche più recenti confermano che gli stereotipi continuano a influenzare la selezione del personale anche se in modo più tenue. Un’analisi internazionale pubblicata sul Journal of Business and Psychology (Schaerer, Dennehy, Kim e Nouri, 2023) ha raccolto 91 studi di campo e oltre 361.000 candidature, analizzando 44 anni di processi di selezione. Secondo i risultati, la discriminazione esplicita contro le donne si è progressivamente ridotta a partire dagli anni 2000, fino a raggiungere quasi un punto di equilibrio alla fine del decennio. Nei ruoli tecnici o tipicamente maschili persiste una, seppur lieve, preferenza per i candidati uomini, mentre nei lavori percepiti come appannaggio ‘femminile’ (assistenza e cura, segreteria o educazione) sono gli uomini ad uscirne penalizzati. Si tratta di un’inversione rispetto ai decenni passati, quando la discriminazione colpiva soprattutto le donne nei ruoli tecnici e a prevalenza maschile. La discriminazione, dunque, non è scomparsa ma si è trasformata: oggi non si manifesta solo come ostacolo per le donne ma anche come barriera all’ingresso per gli uomini che scelgono ruoli tradizionalmente femminili. In entrambi i casi, il fattore comune è la rigidità degli stereotipi professionali, che continua a condizionare la percezione delle competenze.
Sul fronte tecnologico, un recente studio pubblicato sul Journal of Business Research (Sony, Rao e Abraham, 2024) mette in guardia sui rischi legati ai sistemi di selezione basati sull’Intelligenza Artificiale. Questi strumenti vengono spesso addestrati su dati storici — cioè sulle decisioni di assunzione prese in passato — e per questo possono replicare, senza volerlo, gli stessi schemi di disuguaglianza di genere presenti nei dati originali. Se un algoritmo apprende da decisioni che nel tempo hanno privilegiato o favorito un certo tipo di candidato, tenderà a riproporre quel modello, anche quando non è più coerente con gli obiettivi attuali.
Il risultato è un’apparente neutralità che può celare forme di discriminazione automatizzate, difficili da rilevare ma potenzialmente sistemiche. In questo senso, il rischio tecnologico e quello culturale si incontrano: ci mostrano come la discriminazione, anche quando non è intenzionale, possa sopravvivere nei meccanismi con cui valutiamo le persone — che siano umani o digitali. Le evidenze confluiscono su un punto: le discriminazioni dirette si riducono ma i bias impliciti permangono. Per aziende e Pubbliche Amministrazioni la sfida è andare oltre la mera conformità normativa e agire in modo strutturale sui processi HR, investendo nella formazione e nella sensibilizzazione di recruiter e manager sui bias cognitivi, nel monitoraggio costante dei dati di selezione disaggregati per genere e nella trasparenza dei sistemi digitali, accompagnata da audit etici e supervisione umana.
Rubriche DiversE è a cura di ART-ER - Claudia Ferrigno (coordinamento e proposta contenuti); Ilaria Farné (ricerca e redazione). Ideazione, grafica e contributi iniziali: Giusy Scaringi.
