Des outils promettent d’analyser automatiquement les milliers de commentaires issus des entretiens annuels, des sondages d’engagement ou des feedbacks 360°. Cette technologie, souvent appelée “analyse de sentiments”, évalue si le ton d’un texte est globalement positif, négatif ou neutre, dans le but de dégager des tendances et d’aider les managers à préparer leurs échanges.

Cependant, une nouvelle législation européenne majeure, l’IA Act (RIA ne français), vient changer les règles du jeu. L’une de ses mesures les plus fortes est d’interdire les systèmes d’IA qui “déduisent les émotions” des personnes au travail. La question est donc sur toutes les lèvres dans les services RH : ces outils d’analyse de feedback, si prometteurs, sont-ils devenus illégaux ? Ou leur usage est-il simplement très encadré ? La réponse est nuancée
1. L’interdiction de l’article 5 : une cible précise liée aux données biométriques
L’interdiction de la “reconnaissance des émotions” en milieu professionnel n’est pas générale. Le texte de l’IA Act la lie intrinsèquement à l’utilisation de données biométriques. Un système de reconnaissance des émotions (ERS – Emotion Recognition System) interdit serait celui qui analyse les caractéristiques physiques, physiologiques ou comportementales d’une personne pour en déduire son état émotionnel.
- Exemples de systèmes interdits : Un système qui analyse les expressions faciales d’un collaborateur via sa webcam, le ton de sa voix durant un appel, ou sa gestuelle pour déterminer son niveau de stress, d’engagement ou de sincérité.
Un système d’analyse de sentiments qui se base uniquement sur des données textuelles (commentaires dans une évaluation, e-mails, réponses à un sondage) n’entre a priori pas dans cette catégorie. Le texte écrit, bien que révélateur, n’est pas considéré comme une donnée biométrique au sens strict du règlement.
Par conséquent, l’analyse de sentiments basée sur du texte échappe très probablement à l’interdiction de l’article 5.

2. Le véritable enjeu : la classification en système à “haut risque”
L’Annexe III du règlement est formelle : elle classe comme étant à “haut risque” les SIA utilisés dans le domaine de “l’emploi, la gestion des travailleurs et l’accès à l’auto-emploi“. Sont spécifiquement visés les systèmes destinés à :
- Prendre des décisions de recrutement ;
- Influencer la promotion ou la cessation de contrats de travail ;
- Évaluer les performances et le comportement des travailleurs.
Un SIA d’analyse de sentiments pour les entretiens annuels tombe directement sous ce dernier point. Son objectif est d’évaluer un collaborateur, ce qui peut avoir un impact majeur sur sa carrière. C’est cet impact qui justifie la classification à haut risque, quelle que soit la technologie employée.
3. Les risques RH qui justifient la classification
Loin d’être anodine, l’utilisation du NLP pour évaluer des collaborateurs comporte des risques significatifs qui renforcent sa position dans la catégorie “haut risque” :
- Biais algorithmiques : Les modèles de langage peuvent reproduire et amplifier les biais présents dans leurs données d’entraînement, menant à des évaluations discriminatoires basées sur le genre, l’origine culturelle ou le style de communication.
- Manque de contexte : L’ironie, le sarcasme et les nuances culturelles sont des obstacles majeurs pour les algorithmes. Un commentaire peut être radicalement mal interprété, menant à une évaluation erronée.
- Simplification excessive : Réduire un feedback humain complexe à un score de sentiment (positif, négatif, neutre) est une perte d’information dangereuse qui déshumanise l’évaluation et peut conduire à des décisions injustes.

Conclusion : ce que les RH doivent retenir
En résumé, un SIA d’analyse de sentiments basé sur du texte n’est pas interdit par l’article 5 de l’IA Act, car il n’utilise a priori pas de données biométriques.
Cependant, son utilisation pour l’évaluation des collaborateurs le fait automatiquement tomber dans la catégorie des systèmes à “haut risque” en raison de son impact potentiel sur leur carrière. Les départements RH qui déploient ou achètent de tels outils devront donc s’assurer qu’ils respectent des obligations légales très strictes :
- Mise en place d’un système de gestion des risques ;
- Garantie sur la qualité et la non-discrimination des données ;
- Transparence totale sur le fonctionnement du système ;
- Supervision humaine effective et possibilité de contester les résultats ;
- Documentation technique exhaustive et traçabilité des décisions.
La question n’est donc pas de savoir si ces outils sont “autorisés ou interdits”, mais de comprendre qu’ils passent d’une interdiction ciblée à une régulation stricte et contraignante.
PS : Cet article a été réalisé en combinant l’assistance d’une intelligence artificielle générative, utilisée principalement pour la recherche de sources, la création des illustrations et la mise en forme. Cependant, l’ensemble du contenu a été soigneusement validé, enrichi et adapté grâce à notre expertise juridique, technologique et notre expérience approfondie en tant que société spécialisée dans ce domaine, garantissant ainsi la qualité, la rigueur et la pertinence des informations présentées.