RPS : l’impact psychologique des outils d’IA sur les collaborateurs

Dernière mise à jour le :

Publié le :

L’IA révolutionne le travail, mais bouleverse aussi les repères et la santé mentale des salariés car de nouveaux risques psychosociaux émergent. Pour transformer l’IA en atout plutôt qu’en menace, les entreprises doivent accompagner, former et remettre l’humain au cœur de la transition.

Auteur / Autrice

Intervenante en psychologie du travail

rps-impact-psychologique-outils-ia-collaborateurs
Sommaire de l'article

L’intelligence artificielle (IA) s’impose dans les entreprises comme un levier de performance, de productivité et d’innovation. De la rédaction automatisée à la gestion prédictive des plannings, les outils d’IA transforment profondément le travail, les métiers et les relations professionnelles.

Derrière cette révolution technologique se cache un enjeu humain : celui de son impact sur la santé mentale des salariés. Alors que les risques psychosociaux (RPS) représentent une priorité nationale en matière de santé au travail, l’IA introduit de nouveaux risques.

Surveillance algorithmique, perte de sens, peur du remplacement : autant de dimensions qui obligent les employeurs à repenser la prévention.

Comment intégrer l’IA sans aggraver les risques psychosociaux ? Quels dispositifs mettre en place pour accompagner les salariés ? Cet article propose une lecture concrète des RPS liés à l’IA et des leviers de prévention.

L’IA transforme les repères professionnels

En quelques années, l’IA est passée du statut de technologie d’avenir à celui d’outil quotidien : assistants virtuels, logiciels de recrutement, générateurs de texte, outils d’analyse de données ou de surveillance des performances.

Selon l’EU-OSHA, près de 30 % des entreprises européennes utilisent des systèmes d’aide à la décision ou de gestion automatisée du travail.

Cette transformation bouleverse les repères professionnels. Les rôles et compétences évoluent : certaines tâches sont automatisées, d’autres deviennent plus techniques. Des salariés se sentent dépossédés d’une partie de leur savoir-faire, tandis que d’autres peinent à suivre le rythme du changement.

Cette reconfiguration du travail, souvent menée sans accompagnement suffisant, peut fragiliser le sentiment d’appartenance et d’autonomie. En d’autres termes, l’IA recompose les équilibres psychosociaux au sein de l’entreprise.

Abonnez-vous à la newsletter de Culture RH et recevez, chaque semaine, les dernières actualités RH.


La période de vérification reCAPTCHA a expiré. Veuillez recharger la page.

Les nouvelles sources de stress liées à l’intelligence artificielle

La surveillance algorithmique et le contrôle accru

L’un des effets les plus marquants concerne la surveillance des performances. Les systèmes d’analyse de productivité, les outils de suivi automatisé ou les capteurs connectés créent une impression de « contrôle permanent ».

Selon l’EU-OSHA, ce type de supervision algorithmique accroît les pressions psychologiques, la crainte d’erreur et la perte de confiance envers le management.

Ce climat de surveillance permanente fait émerger un sentiment d’insécurité et favorise les conduites de surinvestissement professionnel. Un facteur de risque bien connu des RPS.

La peur du remplacement et la déqualification

Autre source majeure de stress : la crainte de l’obsolescence professionnelle.

Les études récentes (Inforisque, 2025) montrent que 70 % des salariés n’ont reçu aucune formation pour comprendre ou utiliser les outils d’IA déployés dans leur entreprise.

Cette absence d’accompagnement alimente la peur de “ne plus être à la hauteur”, voire d’être remplacé par la machine, ce qui engendre anxiété, repli et démotivation.

La surcharge cognitive et l’intensification du travail

L’IA, censée simplifier le travail, peut aussi l’intensifier. En automatisant certaines tâches, elle augmente souvent le volume d’informations à traiter et accélère les cadences.

Les salariés doivent apprendre de nouveaux outils, interpréter des données générées par l’IA et s’adapter à des processus sans cesse révisés.

Pointage : votre modèle Excel de suivi des heures à télécharger

Beaucoup d’entreprises utilisent encore Excel pour suivre le temps de travail. Mais comment structurer le suivi sans outil dédié ? Découvrez un modèle Excel gratuit de suivi de pointage pour organiser le suivi des heures et tester une logique de Gestion des Temps et Activités avant d’investir dans une solution complète. Ce modèle vous est proposé par notre partenaire Nibelis.

Accéder au modèle

Résultat : une surcharge cognitive, une fatigue mentale accrue et un risque de burn-out.

La perte de sens et l’isolement

Aussi, l’IA peut altérer le sens du travail. Lorsque les décisions, les priorités ou les évaluations sont automatisées, les salariés perdent parfois la perception du « pourquoi » de leur mission. Les échanges humains se raréfient et le collectif s’effrite.

Comme le souligne une étude publiée sur EM-Consult (2024), « l’IA génère un sentiment de distance entre l’humain et l’action, renforçant la désaffiliation professionnelle ».

Ces quatre dimensions, surveillance, peur, surcharge et perte de sens, constituent de nouvelles racines des RPS à l’ère de l’IA.

A lire également :

Les effets psychologiques sur les salariés

Les impacts psychologiques de ces transformations sont déjà visibles dans les entreprises innovantes. L’anxiété est la première réaction observée : peur du changement, insécurité de l’emploi, difficulté à comprendre les attentes de la direction.

Elle s’accompagne d’une baisse de confiance en soi et d’une impression de déclassement. Certains collaborateurs développent un sentiment de perte d’autonomie : ils se sentent dépossédés de leur jugement ou de leur expertise, remplacés par des systèmes opaques.

D’autres manifestent un désengagement progressif, voire une résistance au changement.

Au niveau collectif, ces tensions se traduisent par des conflits internes, une augmentation de l’absentéisme, voire un turnover accru. Autrement dit, l’IA peut devenir un accélérateur de RPS si elle est déployée sans réflexion sur l’humain.

La suite après la publicité

Les études de l’EU-OSHA et de la DARES confirment ces tendances : les salariés exposés à un usage intensif d’outils algorithmiques rapportent davantage de stress, de fatigue et de perte de sens.

Une recherche publiée par l’APA en 2024 montre que 38 % des employés inquiets de l’IA estiment que leur santé mentale en est affectée, tandis que 64 % de ceux soumis à un suivi automatisé se disent stressés.

Les obligations et implications pour l’employeur

Si le Code du travail ne mentionne pas encore l’intelligence artificielle, son déploiement dans les entreprises entre pleinement dans les obligations générales de prévention définies par les articles L.4121-1 à L.4121-5.

L’employeur doit « prendre les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs », ce qui inclut l’évaluation de tout risque nouveau lié à l’organisation, aux outils ou aux technologies.

Évaluer les effets de l’IA dans le DUERP

L’IA n’est pas un risque, mais un facteur de transformation du travail.

Dès lors que son usage modifie les tâches, les responsabilités ou la charge mentale des salariés, l’employeur doit évaluer les risques psychosociaux associés et les intégrer à l’analyse du Document unique d’évaluation des risques professionnels (DUERP).

Le Ministère du Travail et l’INRS rappellent que « toute modification importante des conditions de travail ou l’introduction d’une nouvelle technologie justifie une actualisation du DUERP ». Cela concerne donc les outils d’intelligence artificielle lorsqu’ils influent sur les conditions, les interactions humaines ou la charge de travail.

L’objectif n’est pas de « déclarer » l’IA, mais de décrire les effets qu’elle peut induire :

  • Surcharge cognitive liée à l’usage d’outils complexes.
  • Sentiment de surveillance.
  • Perte de sens ou d’autonomie dans la mission.
  • Inquiétudes quant à l’évolution du poste ou au maintien de l’emploi.

Ces éléments doivent être identifiés, évalués et suivis dans le temps, comme pour tout autre risque professionnel.

Former et informer les salariés

La formation est une des mesures de prévention efficaces. Les études montrent que plus de 70 % des salariés utilisant des outils d’IA n’ont bénéficié d’aucune sensibilisation.

Pourtant, la compréhension des finalités, du fonctionnement et des limites de l’IA réduit le sentiment d’insécurité et favorise une appropriation des nouveaux outils.

Il faut informer sur :

  • Les objectifs de l’intégration de l’IA.
  • Les données traitées et leur confidentialité.
  • Les impacts attendus sur les missions et la performance.
rps-impact-psychologique-outils-ia-salaries

Préserver la dimension collective du travail

L’introduction d’outils d’IA peut fragiliser la cohésion des équipes : individualisation du travail, communication réduite, pilotage à distance. Il est essentiel d’impliquer les managers, les représentants du personnel et, si possible, le CSE, dans la démarche d’évaluation et de prévention.

Le dialogue social est la clé : il permet d’identifier les effets sur le terrain, d’ajuster les pratiques managériales et de maintenir un lien humain dans un environnement technologique.

Leviers de prévention et bonnes pratiques

Miser sur la transparence et la co-construction

L’EU-OSHA recommande de « concevoir l’IA avec les utilisateurs et non pour eux ».

Impliquer les salariés dans les choix technologiques favorise l’adhésion et réduit les inquiétudes et renforce la compréhension des limites et des apports de l’outil.

Former pour accompagner le changement

Pour apporter de la confiance et limiter la peur, un programme de formation doit viser deux niveaux :

  • La maîtrise technique (savoir utiliser l’outil de manière efficace et sécurisée).
  • La compréhension de son fonctionnement et de ses impacts (comment l’IA prend ses décisions, quelles données elle utilise).

Rééquilibrer le travail humain et l’automatisation

Préserver le sens du travail est essentiel. L’IA doit venir soutenir les compétences humaines, pas les remplacer.

Mettre en place un suivi psychologique et des indicateurs

La prévention passe par le repérage des signaux faibles : hausse de l’absentéisme, tensions, baisse de performance. Des espaces d’écoute peuvent aider à anticiper les effets délétères.

Instaurer une gouvernance éthique de l’IA

La création d’un comité de gouvernance de l’IA garantit un cadre éthique : respect de la vie privée, transparence des algorithmes, non-discrimination.

Conclusion

L’intelligence artificielle est une révolution technologique mais aussi organisationnelle et humaine. Mal intégrée, elle peut devenir un facteur aggravant des RPS : stress, perte de sens, sentiment de surveillance. Bien pensée, elle peut libérer du temps, réduire la charge mentale et renforcer l’efficacité.

L’enjeu pour les entreprises n’est donc pas de choisir entre innovation et santé mentale, mais de concilier les deux. Cela passe par une démarche claire : analyser, prévenir, accompagner et réguler.

Les RH, les managers et les instances représentatives doivent s’emparer du sujet, non pas comme d’un risque purement technologique, mais comme d’un enjeu humain majeur de la transformation du travail.


L’IA ne remplace pas l’humain, elle rappelle, plus que jamais, la nécessité de le remettre au centre.

A lire également :

Abonnez-vous à la newsletter de Culture RH et recevez, chaque semaine, les dernières actualités RH.


La période de vérification reCAPTCHA a expiré. Veuillez recharger la page.