IA de recrutement : attention à l’uniformisation des candidats

IA de recrutement : attention à l’uniformisation des candidats
Adeline Lajoinie

Les IA de recrutement sont de plus en plus utilisées par les services RH depuis quelques années. Mais faire appel à une Intelligence Artificielle peut présenter des risques importants d’uniformisation des candidats proposés.

Des risques de biais sexistes dans l’utilisation d’une IA de recrutement

L’utilisation de l’intelligence Artificielle dans les processus de recrutement s’est largement accélérée depuis la sortie du COVID. En 2020, un sondage Gartner, Inc. auprès de 334 responsables RH a révélé que 86% des organisations américaines intégraient de nouvelles technologies virtuelles dans leurs pratiques d’embauche. 

En France, selon l’Apec, 27% des entreprises composées de plus de 50 salariés utiliseraient des logiciels d’intelligence artificielle pour gérer une ou plusieurs phases de leur recrutement.

L’un des arguments des créateurs de ces nouveaux outils de recrutement est qu’ils “pourraient éliminer les préjugés humains et aider les entreprises à atteindre leurs objectifs de diversité, d’équité et d’inclusion en embauchant davantage de personnes issues de groupes sous-représentés” (selon un article de développez.com).

Cependant, dès 2021, des risques de biais étaient, au contraire, mis en avant. En effet, des ingénieurs d’Amazon avaient, depuis 2018, travaillé sur une IA de recrutement qui avait pour but d’accélérer et d’améliorer le processus d’embauche.

Des chercheurs de l’Université de Melbourne se sont alors penchés sur cet outil technologique et ont découvert que l’algorithme de recrutement utilisé reproduisait les préjugés sexistes des humains (en ne choisissant que des hommes), même lorsque les noms des candidats avaient été supprimés. Le programme d’IA de recrutement a depuis été abandonné. 

A lire également :

Advertisements

Abonnez-vous à la newsletter de Culture RH et recevez, chaque semaine, les dernières actualités RH.


The reCAPTCHA verification period has expired. Please reload the page.

Une amélioration du sourcing des candidats mais des risques d’uniformisation

Un article publié dans la revue Philosophy and Technology par des chercheurs de l’Université de Cambridge a tenté de démontrer pourquoi certains logiciels d’IA de recrutement étaient considérés comme « pseudoscience automatisée ». 

Le logiciel utilise alors une « machine à personnalité » analysant les différents types de personnalité de chaque candidat à l’aide d’images de leur visage.

L’étude démontre alors que les prédictions du logiciel sont affectées par les changements dans les expressions faciales, l’éclairage et les arrière-plans des personnes, ainsi que par leur choix de vêtements : ainsi, une personne posant devant une bibliothèque est favorisée dans le recrutement alors qu’une personne portant des lunettes est jugée moins consciencieuse, sans que l’on sache trop pourquoi.

Entretien annuel : 10 pièges à éviter

L’entretien annuel a mauvaise réputation. Pour y remédier, notre partenaire Lucca a élaboré un guide qui détaille 10 leviers pour améliorer son efficacité. Ce guide vous propose des conseils pratiques de la préparation au plan d'action concret en exploitant les résultats des entretiens.

Je télécharge

Autre risque souligné par cette étude (qui parle alors de “techno solutionnisme”) : l’uniformisation des candidats.

En effet, les IA étant configurées selon des données antérieures issues des anciens recrutements de l’entreprise, l’algorithme a tendance à privilégier une personne ayant le bon diplôme sans chercher à aller plus loin. Et les candidats retenus ressemblent alors beaucoup au personnel actuel de l’entreprise.

A lire également :

Partager l'article

Adeline Lajoinie

Journaliste et Rédactrice Web SEO, j'ai promené ma plume dans les colonnes de nombreux journaux. Depuis plus de 10 ans, c'est surtout le digital qui profite de mes mots, pour des rédactions web parfaitement bien référencées, dans tous les domaines.