De plus en plus d’entreprises utilisent des systèmes algorithmiques pour évaluer, classer ou orienter les salariés — que ce soit pour fixer des objectifs, mesurer des performances, recommander des formations, ou gérer les carrières. Ces outils sont souvent perçus comme objectifs ou efficaces, mais ils restent majoritairement opaques pour les personnes concernées. En 2026, une question centrale se pose : quels sont les droits des salariés lorsqu’une évaluation automatisée influe sur leur trajectoire professionnelle — sans que ceux-ci sachent précisément comment elle fonctionne ?
Sommaire
1- Ce qu’on entend par gestion algorithmique du travail
La gestion algorithmique désigne l’usage de systèmes informatisés — parfois intégrant de l’IA — pour organiser, planifier ou contrôler le travail des personnes salariées. Dans certains cas, ces systèmes remplacent ou complètent des fonctions traditionnellement humaines (comme le suivi de performance ou la planification des tâches).
2- Comment les algorithmes évaluent aujourd’hui les salariés ?
Les systèmes algorithmiques peuvent :
- mesurer des indicateurs de productivité ou de comportement,
- attribuer des scores ou des classements,
- générer des recommandations de carrière.
Dans certains centres d’appel, par exemple, des systèmes mesurent non seulement les métriques classiques (temps de traitement), mais aussi des indicateurs comportementaux (comme l’empathie ou le stress perçu dans la voix), affectant la notation sans que l’employé sache exactement comment ces indices sont pondérés.
3- Chiffres clés : l’ampleur du phénomène
- Un employeur sur quatre en Europe utilise déjà des décisions basées sur des algorithmes ou de l’IA qui ont un impact sur la vie professionnelle des salariés.
- 42 % des travailleurs européens sont aujourd’hui soumis à une forme de gestion algorithmique au travail, avec une projection à 55,5 % d’ici cinq ans si rien ne change.
Ces chiffres montrent que ce phénomène n’est plus anecdotique : il devient une composante structurelle du marché du travail.
4– Études de cas réelles : vécu et impacts
Cas n°1 — Centres d’appel et évaluations comportementales
Dans certains centres d’appel, les systèmes de gestion algorithmique mesurent des indicateurs complexes (par exemple, la manière dont un téléopérateur module son ton ou gère le stress perçu). Ces mesures influencent la notation des salariés — parfois sans qu’ils puissent comprendre ou contester les modes de calcul.
Cas n°2 — Logistique et suivi automatisé des performances
Des recherches empiriques, notamment dans des entrepôts logistiques soumis à des systèmes de gestion algorithmique, montrent que les travailleurs développent des stratégies informelles pour “jouer” avec les règles imposées par les outils afin de maintenir leur productivité ou réduire la pression, révélant une tension entre les impératifs humains et les contraintes algorithmiques.
Cas n°3 — Effets sur la santé au travail
Des études scientifiques suggèrent que la gestion algorithmique peut nuire à la santé mentale en augmentant les niveaux de stress ou de burn-out, notamment lorsqu’elle réduit l’autonomie ou crée un sentiment d’être constamment surveillé, sans explication.
5- Ce que dit le droit aujourd’hui (France / Europe)
Le droit du travail ne contient pas encore de règles spécifiques imposant la transparence totale des algorithmes utilisés pour la gestion ou l’évaluation des salariés. Cependant :
- Le RGPD oblige à informer les personnes quand leurs données personnelles sont traitées,
- Les salariés doivent être informés de l’usage de systèmes automatisés,
- Une décision basée sur un système algorithmique peut être contestée, mais cela reste difficile en l’absence de transparence claire.
Des propositions récentes du Parlement européen visent à :
- exiger une supervision humaine pour toutes les décisions majeures (recrutement, promotion, sanction),
- garantir le droit d’explication des décisions algorithmiques,
- permettre aux salariés de demander un réexamen humain lorsqu’une décision algorithmique les affecte.
6- Pourquoi le cadre juridique est en retard ?
Les technologies évoluent plus vite que les lois.
Le droit français reste largement basé sur des principes généraux (transparence, non-discrimination, vie privée), mais sans normes précises sur le fonctionnement des systèmes de décision automatisés appliqués au travail.
Cette absence d’encadrement spécifique crée un vide où :
- les salariés peuvent être évalués sans information suffisante,
- il est difficile de comprendre le mode de calcul des notes,
- la charge de la preuve pèse souvent sur la personne évaluée.
7- Ce qui pourrait changer en 2026
Dans le débat législatif européen en cours, plusieurs évolutions sont envisagées :
- obligation d’explicabilité des décisions,
- supervision humaine obligatoire,
- droits étendus de contester et faire réexaminer les décisions automatisées.
8- Conseils concrets pour les salariés
Voici des actions qui peuvent être entreprises dès maintenant :
- demander à la direction ou aux RH si des systèmes algorithmiques sont utilisés,
- exiger des informations sur les données traitées et leurs finalités,
- poser des questions écrites sur les critères d’évaluation,
- impliquer les représentants du personnel (CSE) dans l’analyse des outils utilisés.
Ces démarches ne résolvent pas tout, mais elles permettent de poser des jalons concrets pour comprendre et, si nécessaire, contester des évaluations automatisées.
Conclusion
La gestion algorithmique du travail est en train de devenir une réalité concrète pour une part croissante des salariés en Europe.
Elle promet efficacité et objectivité, mais pose des questions de transparence, d’équité et de droit à comprendre et contester les décisions.
Alors que le cadre juridique français est encore en construction, des avancées significatives sont possibles en 2026, notamment au niveau européen. En attendant, les salariés disposent de droits concrets à faire valoir — à condition de savoir qu’ils existent.
Pour aller plus loin :
Organisation Internationale du Travail – Gestion algorithmique au travail