Verrà aperta una nuova finestra
  • Comunicazione

    8 apr 2026

    Oltre il genere: come gli stereotipi influenzano ancora i processi HR

    "DiversE”, la rubrica sulla parità di genere, diversità, equità ed inclusione nell’innovazione

Ilaria Farnè

Ilaria Farnè

Il mercato del lavoro europeo mostra segnali promettenti verso una reale parità di genere ma le ricerche più recenti confermano che gli stereotipi continuano a influenzare la selezione del personale anche se in modo più tenue. Un’analisi internazionale pubblicata sul Journal of Business and Psychology (Schaerer, Dennehy, Kim e Nouri, 2023) ha raccolto 91 studi di campo e oltre 361.000 candidature, analizzando 44 anni di processi di selezione. Secondo i risultati, la discriminazione esplicita contro le donne si è progressivamente ridotta a partire dagli anni 2000, fino a raggiungere quasi un punto di equilibrio alla fine del decennio. Nei ruoli tecnici o tipicamente maschili persiste una, seppur lieve, preferenza per i candidati uomini, mentre nei lavori percepiti come appannaggio ‘femminile’ (assistenza e cura, segreteria o educazione) sono gli uomini ad uscirne penalizzati. Si tratta di un’inversione rispetto ai decenni passati, quando la discriminazione colpiva soprattutto le donne nei ruoli tecnici e a prevalenza maschile. La discriminazione, dunque, non è scomparsa ma si è trasformata: oggi non si manifesta solo come ostacolo per le donne ma anche come barriera all’ingresso per gli uomini che scelgono ruoli tradizionalmente femminili. In entrambi i casi, il fattore comune è la rigidità degli stereotipi professionali, che continua a condizionare la percezione delle competenze.

Sul fronte tecnologico, un recente studio pubblicato sul Journal of Business Research (Sony, Rao e Abraham, 2024) mette in guardia sui rischi legati ai sistemi di selezione basati sull’Intelligenza Artificiale. Questi strumenti vengono spesso addestrati su dati storici — cioè sulle decisioni di assunzione prese in passato — e per questo possono replicare, senza volerlo, gli stessi schemi di disuguaglianza di genere presenti nei dati originali. Se un algoritmo apprende da decisioni che nel tempo hanno privilegiato o favorito un certo tipo di candidato, tenderà a riproporre quel modello, anche quando non è più coerente con gli obiettivi attuali.
Il risultato è un’apparente neutralità che può celare forme di discriminazione automatizzate, difficili da rilevare ma potenzialmente sistemiche. In questo senso, il rischio tecnologico e quello culturale si incontrano: ci mostrano come la discriminazione, anche quando non è intenzionale, possa sopravvivere nei meccanismi con cui valutiamo le persone — che siano umani o digitali.                Le evidenze confluiscono su un punto: le discriminazioni dirette si riducono ma i bias impliciti permangono. Per aziende e Pubbliche Amministrazioni la sfida è andare oltre la mera conformità normativa e agire in modo strutturale sui processi HR, investendo nella formazione e nella sensibilizzazione di recruiter e manager sui bias cognitivi, nel monitoraggio costante dei dati di selezione disaggregati per genere e nella trasparenza dei sistemi digitali, accompagnata da audit etici e supervisione umana.

 

Rubriche DiversE è a cura di ART-ER - Claudia Ferrigno (coordinamento e proposta contenuti); Ilaria Farné (ricerca e redazione). Ideazione, grafica e contributi iniziali: Giusy Scaringi.