IA de recrutement : attention à l’uniformisation des candidats

Dernière mise à jour le :

Publié le :

Les IA de recrutement sont de plus en plus utilisées par les services RH depuis quelques années. Mais faire appel à une Intelligence Artificielle peut présenter des risques importants d’uniformisation des candidats proposés.

Auteur / Autrice

ia de recrutement
Sommaire de l'article
webinaire klaro

Des risques de biais sexistes dans l’utilisation d’une IA de recrutement

L’utilisation de l’intelligence Artificielle dans les processus de recrutement s’est largement accélérée depuis la sortie du COVID. En 2020, un sondage Gartner, Inc. auprès de 334 responsables RH a révélé que 86% des organisations américaines intégraient de nouvelles technologies virtuelles dans leurs pratiques d’embauche. 

En France, selon l’Apec, 27% des entreprises composées de plus de 50 salariés utiliseraient des logiciels d’intelligence artificielle pour gérer une ou plusieurs phases de leur recrutement.

L’un des arguments des créateurs de ces nouveaux outils de recrutement est qu’ils “pourraient éliminer les préjugés humains et aider les entreprises à atteindre leurs objectifs de diversité, d’équité et d’inclusion en embauchant davantage de personnes issues de groupes sous-représentés” (selon un article de développez.com).

Cependant, dès 2021, des risques de biais étaient, au contraire, mis en avant. En effet, des ingénieurs d’Amazon avaient, depuis 2018, travaillé sur une IA de recrutement qui avait pour but d’accélérer et d’améliorer le processus d’embauche.

Des chercheurs de l’Université de Melbourne se sont alors penchés sur cet outil technologique et ont découvert que l’algorithme de recrutement utilisé reproduisait les préjugés sexistes des humains (en ne choisissant que des hommes), même lorsque les noms des candidats avaient été supprimés. Le programme d’IA de recrutement a depuis été abandonné. 

A lire également :

La suite après la publicité

Abonnez-vous à la newsletter de Culture RH et recevez, chaque semaine, les dernières actualités RH.


Pour vous abonner, rechargez la page svp

Une amélioration du sourcing des candidats mais des risques d’uniformisation

Un article publié dans la revue Philosophy and Technology par des chercheurs de l’Université de Cambridge a tenté de démontrer pourquoi certains logiciels d’IA de recrutement étaient considérés comme « pseudoscience automatisée ». 

Le logiciel utilise alors une « machine à personnalité » analysant les différents types de personnalité de chaque candidat à l’aide d’images de leur visage.

L’étude démontre alors que les prédictions du logiciel sont affectées par les changements dans les expressions faciales, l’éclairage et les arrière-plans des personnes, ainsi que par leur choix de vêtements : ainsi, une personne posant devant une bibliothèque est favorisée dans le recrutement alors qu’une personne portant des lunettes est jugée moins consciencieuse, sans que l’on sache trop pourquoi.

Autre risque souligné par cette étude (qui parle alors de “techno solutionnisme”) : l’uniformisation des candidats.

Webinaire BDESE : décryptage des enjeux juridiques 2025

Notre partenaire les Editions Tissot vous proposent de découvrir les enjeux 2025 propres à la BDESE avec un spécialiste en droit du travail et relations sociales. Participez au live pour partager vos propres réflexions et interrogations ! Vous n'êtes pas disponible ? Inscrivez-vous tout de même pour recevoir le replay du webinaire.

Je m’inscris gratuitement

En effet, les IA étant configurées selon des données antérieures issues des anciens recrutements de l’entreprise, l’algorithme a tendance à privilégier une personne ayant le bon diplôme sans chercher à aller plus loin. Et les candidats retenus ressemblent alors beaucoup au personnel actuel de l’entreprise.

A lire également :