Comment intégrer l’IA dans les RH en respectant le droit du travail ?
Date de publication : 13.05.26
Stanislas Dublineau
L’intelligence artificielle est désormais un outil utilisé dans de nombreux métiers. Les professionnels des ressources humaines voient fleurir de nombreuses solutions intégrant l’IA dans de nombreux domaines de leur activité : aide à l’embauche, aide à la rédaction des contrats, analyse des entretiens, outils de “talent management”, copilotes RH, etc.
Ces outils promettent d’importants gains de temps et font miroiter à leurs utilisateurs l’illusion de prises de décisions rapides, efficaces et sécurisées.
Pourtant, utilisée sans garde-fous, l’intelligence artificielle expose à des risques juridiques redoutables : accusations de discrimination, atteinte à la vie privée, manque de transparence, contentieux prud’homaux…
Intégrer l’IA dans les métiers des ressources humaines impose donc un usage contrôlé et respectueux du droit du travail et des règles de protection des données.
Informer les salariés et le CSE : une obligation préalable
Information du CSE
Le Code du travail impose que le CSE soit informé, préalablement à leur introduction, lorsque le chef d’entreprise envisage notamment d’utiliser un outil qui :
- d’une nouvelle technologie qui modifie l’organisation ou les conditions de travail ;
- et/ou d’un moyen de contrôle de l’activité des salariés ;
- et/ou d’un traitement automatisé de gestion du personnel (recrutement, évaluation, planning, etc.).
Ainsi, un employeur qui envisage d’utiliser des logiciels ayant recours à l’intelligence artificielle devra très souvent informer et consulter le CSE avant de mettre en œuvre son projet.
Récemment, le tribunal judiciaire de Nanterre a indiqué qu’un employeur devait informer et consulter le CSE de son entreprise lorsqu’il envisageait de remplacer d’anciens logiciels de gestion RH par des nouveaux utilisant l’intelligence artificielle. Le tribunal considère notamment que le déploiement de ces nouveaux logiciels « implique l’introduction de nouvelles technologies impactant les conditions de travail des salariés et qu’une consultation du CSEC s’impose en conséquence » (TJ Nanterre réf., 29 janv. 2026, n°25/02856).
Information préalable des salariés
De même, l’employeur qui décide d’utiliser des logiciels de ressources humaines intégrant l’intelligence artificielle doit informer de manière claire et préalable les salariés de leurs finalités, leurs modalités de fonctionnement et les droits dont ils disposent.
En fonction des missions qu’ils poursuivent, les logiciels utilisés ont vocation à être intégrés dans le règlement intérieur de l’entreprise ou dans des chartes internes (charte informatique, charte éthique de l’IA, politique de gestion des données RH).
Ces documents devront préciser, notamment :
- les usages autorisés et interdits de l’IA en RH ;
- les principes éthiques (non‑discrimination, transparence, proportionnalité) ;
- les limites de la surveillance et de l’évaluation ;
- les voies de recours ouvertes aux salariés.
Respecter les droits des salariés
Respecter le RGPD
La quasi‑totalité des usages d’IA dans la gestion des ressources humaines constitue des traitements de données personnelles au sens du Règlement Général de Protection des Données.
Les principes généraux de ce règlement (article 5) doivent, dès lors, être scrupuleusement respectés :
- finalités déterminées, explicites et légitimes ;
- minimisation des données collectées (ne collecter que ce qui est nécessaire à la finalité poursuivie) ;
- exactitude et mise à jour ;
- limitation de la durée de conservation ;
- sécurité et confidentialité.
Les données dites « sensibles » (article 9 RGPD) doivent également faire l’objet d’un encadrement renforcé : l’algorithme ne doit ni traiter, ni inférer des informations relatives à l’origine raciale ou ethnique, aux opinions politiques, à la santé, à l’appartenance syndicale, etc., sauf cas exceptionnels strictement encadrés.
L’IA peut également avoir pour effet de générer des décisions individuelles automatisées (article 22 RGPD), c’est-à-dire une décision produisant des effets juridiques ou affectant de manière significative la personne et fondée exclusivement sur un traitement automatisé, y compris le profilage. Si tel est le cas, le salarié (ou le candidat à l’embauche) concerné doit notamment :
- pouvoir obtenir une intervention humaine,
- exprimer son point de vue,
- contester la décision.
En pratique, les projets les plus intrusifs (profilage poussé des salariés, scoring de performance en temps réel, outils d’analyse comportementale) doivent faire l’objet d’une analyse d’impact sur la protection des données (AIPD/DPIA), en lien étroit avec le DPO.
S’assurer de la légalité des méthodes utilisées par l’IA
Les systèmes d’IA RH s’appuient sur de grandes quantités de données historiques (CV reçus, performances passées, évaluations, trajectoires de carrière…).
Ils apprennent à reproduire des corrélations observées… y compris lorsque ces corrélations traduisent en réalité des biais.
Un algorithme de tri de CV peut ainsi apprendre à défavoriser, de manière indirecte, certains profils (âge, quartier de résidence, type de diplôme, interruptions de carrière, etc.) et produire des effets discriminatoires au regard du Code du travail (notamment en matière de non‑discrimination à l’embauche, dans le déroulement de carrière ou la rupture du contrat).
Pour limiter ce risque, plusieurs réflexes s’imposent :
- identifier les finalités précises des outils déployés (recrutement, évaluation annuelle, mobilité interne, plan de succession, etc.) et vérifier qu’elles ne conduisent pas à des segmentations illégitimes ;
- analyser les données utilisées : exclure les données directement sensibles (origine, état de santé, appartenance syndicale, etc.) et être vigilant sur les corrélations indirectes (adresse, loisirs, type d’établissement fréquenté, etc.) ;
- tester les résultats : comparer les décisions ou recommandations produites par l’IA selon le sexe, l’âge, le type de contrat, etc. pour détecter d’éventuels écarts inexpliqués ;
- prévoir des contrôles humains : revue manuelle obligatoire de certains dossiers (cas limites, scores extrêmes, décisions défavorables), possibilité pour le salarié ou le candidat de demander une réévaluation humaine.
Respecter ces principes peut s’avérer particulièrement fastidieux en raison du manque de connaissance des moyens utilisés par l’IA et de leur conception souvent basée sur une culture anglo-saxonne.
Mais les négliger fait porter un risque significatif sur l’employeur. Il est, et reste, le seul responsable des outils qu’il utilise et de leurs éventuelles dérives. En cas de contentieux, il devra démontrer que les critères sur lesquels il s’est fondé sont objectifs, pertinents et étrangers à tout motif discriminatoire.
Respecter le règlement européen sur l’IA
Adopté en mars 2024 et publié en juillet 2024, le règlement européen n°2024/1689 établit un cadre harmonisé pour l’utilisation de l’intelligence artificielle (IA) au sein de l’Union européenne.
Ce texte également appelé « AI Act » établit des règles harmonisées dans l’ensemble de l’Union européenne pour garantir que les systèmes d’IA respectent les droits fondamentaux, les valeurs européennes et les exigences de sécurité. Il s’appuie sur une approche basée sur les risques, catégorisant les systèmes d’IA selon leur impact potentiel, de risque minimal à inacceptable.
Selon ce texte, les entreprises amenées à développer ou déployer des systèmes de gestion du personnel reposant sur l’IA doivent respecter des exigences renforcées, notamment :
- mise en place d’un système de gestion des risques spécifique à l’IA ;
- exigences élevées en matière de qualité des données d’entraînement ;
- documentation technique et traçabilité des opérations ;
- transparence accrue vis‑à‑vis des utilisateurs professionnels ;
- contrôle humain approprié.
Ces exigences viennent s’ajouter, et non se substituer, aux contraintes existantes du droit du travail et du RGPD.
L’accumulation des réglementations concernant l’IA impose aux entreprises de mettre en place une véritable gouvernance de l’IA : comité IA/RGPD, cartographie des usages, procédures d’audit régulier, formation des équipes RH et des managers, coordination entre direction juridique, DSI, DPO et DRH.
En conclusion
Aucun algorithme soi-disant « intelligent » ne remplacera l’employeur.
Toutes ses décisions importantes liées à la gestion des ressources humaines (embauche, sanction, licenciement, promotion, rémunération) engagent sa responsabilité.
L’intelligence artificielle doit être uniquement utilisée comme une aide à la décision.
Elle ne peut -sans risque- remplacer l’employeur et ses représentants. Ils doivent toujours être en mesure de justifier leurs décisions par des critères objectifs, indépendamment du score ou de la recommandation fournie par l’IA.
Intégrer l’IA dans la gestion des ressources humaines d’une entreprise suppose donc un travail préalable considérable : mise en place de règles précises d’utilisation de l’outil, procédures de vérification des décisions, formation des équipes, information des salariés et de leurs représentants…
Il est malheureusement à craindre que bon nombre d’entreprises négligent ces aspects en raison de la rapidité et de la facilité d’utilisation de l’intelligence artificielle…
Auteurs :
Partagez







