Des risques de biais sexistes dans l’utilisation d’une IA de recrutement
L’utilisation de l’intelligence Artificielle dans les processus de recrutement s’est largement accélérée depuis la sortie du COVID. En 2020, un sondage Gartner, Inc. auprès de 334 responsables RH a révélé que 86% des organisations américaines intégraient de nouvelles technologies virtuelles dans leurs pratiques d’embauche.
En France, selon l’Apec, 27% des entreprises composées de plus de 50 salariés utiliseraient des logiciels d’intelligence artificielle pour gérer une ou plusieurs phases de leur recrutement.
L’un des arguments des créateurs de ces nouveaux outils de recrutement est qu’ils “pourraient éliminer les préjugés humains et aider les entreprises à atteindre leurs objectifs de diversité, d’équité et d’inclusion en embauchant davantage de personnes issues de groupes sous-représentés” (selon un article de développez.com).
Cependant, dès 2021, des risques de biais étaient, au contraire, mis en avant. En effet, des ingénieurs d’Amazon avaient, depuis 2018, travaillé sur une IA de recrutement qui avait pour but d’accélérer et d’améliorer le processus d’embauche.
Des chercheurs de l’Université de Melbourne se sont alors penchés sur cet outil technologique et ont découvert que l’algorithme de recrutement utilisé reproduisait les préjugés sexistes des humains (en ne choisissant que des hommes), même lorsque les noms des candidats avaient été supprimés. Le programme d’IA de recrutement a depuis été abandonné.
A lire également :
- Le métavers, nouvel outil de recrutement pour 84% des français en recherche d’emploi
- Comment calculer la prime de départ à la retraite ?
- L’indemnité de licenciement 2022 : Qui peut en bénéficier ? Comment la calculer ?
Une amélioration du sourcing des candidats mais des risques d’uniformisation
Un article publié dans la revue Philosophy and Technology par des chercheurs de l’Université de Cambridge a tenté de démontrer pourquoi certains logiciels d’IA de recrutement étaient considérés comme « pseudoscience automatisée ».
Le logiciel utilise alors une « machine à personnalité » analysant les différents types de personnalité de chaque candidat à l’aide d’images de leur visage.
Prévenir l’épuisement professionnel des cadres
22 % des cadres travaillent plus de 50 heures par semaine et 43 % se reconnectent en soirée ou le week-end. Cette surcharge menace l'équilibre de vie de ces collaborateurs, augmentant le risque d'épuisement professionnel. Le guide "5 actions pour veiller au respect des temps de travail et de repos" vous permet d’évaluer et d’ajuster la charge de travail, avec des indicateurs de suivi et des solutions d'accompagnement. Ce guide vous est proposé par notre partenaire Lucca.
Je téléchargeL’étude démontre alors que les prédictions du logiciel sont affectées par les changements dans les expressions faciales, l’éclairage et les arrière-plans des personnes, ainsi que par leur choix de vêtements : ainsi, une personne posant devant une bibliothèque est favorisée dans le recrutement alors qu’une personne portant des lunettes est jugée moins consciencieuse, sans que l’on sache trop pourquoi.
Autre risque souligné par cette étude (qui parle alors de « techno solutionnisme ») : l’uniformisation des candidats.
En effet, les IA étant configurées selon des données antérieures issues des anciens recrutements de l’entreprise, l’algorithme a tendance à privilégier une personne ayant le bon diplôme sans chercher à aller plus loin. Et les candidats retenus ressemblent alors beaucoup au personnel actuel de l’entreprise.
A lire également :
- Imposer des congés: quelles sont les règles ? Délais ? Refus du salarié ?
- Comment calculer l’indemnité de rupture conventionnelle ?
- Rapport d’étonnement : avantages, mise en place, exemple…