2.1. Les 4 niveaux de risque du Règlement IA
Le texte européen distingue :
- Risque inacceptable : IA interdites (notation sociale, manipulation cognitive, détection émotionnelle sur le lieu de travail…)
- Risque élevé (haut risque) : IA encadrées très strictement car elles peuvent porter atteinte aux droits fondamentaux. Les outils RH sont ici.
- Risque limité : IA nécessitant des obligations de transparence (chatbots, IA génératives, deepfakes…)
- Risque minimal : IA sans effet notable sur la sécurité ou les droits des personnes (automatisations simples, outils d’assistance non décisionnels…)
2.2. Recruter, évaluer, promouvoir : les usages RH sont à haut risque
Selon le Règlement IA, les systèmes considérés comme “à haut risque” incluent notamment ceux utilisés pour :
-
Le recrutement ou la présélection de candidatures
(ex. : tri automatisé de CV, scoring, entretiens vidéo analysés par IA)
-
L’évaluation des performances
(ex. : outils qui détectent des écarts de résultats, calculent des scores d’efficacité)
-
La gestion des carrières
(ex. : IA qui propose une promotion, oriente une formation ou émet une alerte RH)
Autrement dit, si une IA influe (même partiellement) sur une décision RH individuelle, vous entrez dans la zone rouge réglementaire.
2.3. Ce que ça change pour l’entreprise
Utiliser une IA à haut risque implique des obligations très précises. Pas juste une info vague dans le SIRH.
Voici ce que le Règlement IA impose :
- Analyse d’impact (AIPD) obligatoire avant le déploiement
- Documentation technique complète sur le fonctionnement du système
- Supervision humaine obligatoire