Informations Juridiques

IA et droit du travail : enjeux et perspectives pour les entreprises

Travail. L’IA s’invite aujourd’hui au cœur des pratiques RH et des processus organisationnels, transformant profondément les modes de travail. Porteuse d’autant de promesses que de défis, l’IA soulève des questions fondamentales pour les employeurs.

Lecture 7 min
(Crédits : Freepik)

L’IA peut révolutionner les processus de recrutement, optimiser la gestion des ressources humaines, stimuler la productivité et renforcer les outils de pilotage, offrant ainsi aux entreprises un potentiel considérable d’amélioration continue.

Cependant, son utilisation implique des enjeux juridiques complexes pouvant impacter le maintien même de l’emploi, tout comme la création de nouveaux emplois.

Si la loi française n’encadre pas directement l’IA, l’Union Européenne s’est saisie de la question via notamment l’IA Act. Adopté définitivement par le Parlement européen le 13 mars 2024, l’IA Act entrera progressivement en application entre 2025 et 2026, avec certaines obligations déjà anticipables pour les employeurs utilisant de l’IA dans leurs outils RH ou organisationnels.

Trois systèmes d’IA identifiés

L’IA Act distingue trois systèmes d’IA dans la gestion de ses salariés :

-  le système dit « à haut risque » tels que les outils de recrutement automatisé, les systèmes d’évaluation ou de notation des salariés, les outils de gestion algorithmique du travail (ex : plannings automatisés, surveillance, optimisation de tâches), les outils de prise de décision impactant la carrière ou le contrat d’un salarié.

Ces outils ne sont pas interdits, mais soumis à des obligations strictes. Ainsi, avant de mettre en service ou d’utiliser un système d’IA à haut risque sur le lieu de travail, les employeurs doivent informer les représentants du personnel et les travailleurs concernés qu’ils seront soumis à l’utilisation d’un système d’IA à haut risque.

Les entreprises doivent prendre des mesures pour garantir un niveau suffisant de maîtrise de l’IA pour leur personnel et les tiers s’occupant du fonctionnement et de l’utilisation des systèmes d’IA pour leur compte ; autrement dit, elles seront tenues de former leurs collaborateurs, voire pour les systèmes d’IA utilisés pour le recrutement, de recourir au contrôle humain.

En effet, rappelons-nous du scandale Amazon (en 2018) : ce géant du E-commerce avait confié ses candidatures à un algorithme, mais il a dû désactiver cet IA, constatant, quelques années plus tard, qu’il discriminait les profils féminins !

-  le système dit « à risque limité » tels que les chatbots RH (assistants virtuels), les outils de formation adaptative, certains outils de support à la décision non déterminants. Ces IA devront respecter un principe de transparence et d’information (l’utilisateur doit savoir qu’il interagit avec une IA) et un droit de refus / d’explication, le cas échéant.

-  le système interdit dit « à risque inacceptable » : huit systèmes sont interdits en Europe, notamment, la notation sociale des salariés, le système de surveillance biométrique intrusive au travail, ou encore la manipulation psychologique ou coercition via IA.

Notons également que le RGPD, applicable à toutes les entreprises françaises depuis le 25 mai 2018, imposent des directives relatives aux traitements de données personnelles utilisant des outils d’IA, notamment la transparence, la minimisation des données, l’absence de décision automatisée sans intervention humaine, la sécurité des données par la mise en place de chiffrement notamment, la limitation des accès, des audits réguliers, la tenue d’un registre de traitements…

Une législation française spécifique

Outre ces règlementations européennes, plusieurs textes existants en droit français devront s’appliquer dans le déploiement de l’IA dans les entreprises :

-  L’information des collaborateurs pour le recours à un dispositif de traitement automatisé de données pour prendre des décisions individuelles (article L1222-21 du Code du travail)

-  La consultation des représentants du personnel (article L2312-8 du Code du travail).

Sur ce sujet, il a été récemment jugé que l’introduction d’un système d’IA devait donner lieu à une consultation du CSE. Ainsi, le Tribunal judiciaire de Nanterre a suspendu le déploiement d’une série d’applications d’IA en « phase pilote » jusqu’à la clôture de la consultation du CSE estimant que cette phase dépassait la simple expérimentation nécessaire à la présentation d’un projet suffisamment abouti (TJ Nanterre, réf. 14 février 2025, ord. n°24/01457).

-  L’évaluation des risques liés aux outils d’IA (pression algorithmique, surveillance, isolement) et l’intégration de ces outils dans le document unique d’évaluation des risques professionnels (article L4121-1 du Code du travail).

-  La formation des collaborateurs (article L6321-1 du Code du travail).

-  L’obligation de négocier tous les 4 ans sur la gestion prévisionnelle des emplois et des compétences (GEPP) et l’anticipation des évolutions professionnelles (L2241-1 du Code du travail)

Face à ces évolutions, nous invitons chaque entreprise à transformer ces enjeux en opportunités, en anticipant les risques juridiques, en élaborant des politiques internes conformes aux règles en vigueur, en adaptant leurs contrats et accords, et en structurant des stratégies RH autour de l’IA en fonction des spécificités de leur activité.