Les outils intégrant des algorithmes mobilisant l’intelligence artificielle (IA) ont progressivement gagné toutes les étapes du processus de recrutement. En 2018, déjà, 64 % des 9000 recruteurs interrogés dans une étude en ligne déclaraient les utiliser parfois ou souvent dans le cadre de leur activité. 76 % pensaient que cette technologie aurait dessus un impact significatif. Une enquête plus récente suggère même un lien entre IA et performance : 22 % des entreprises les plus performantes ont recours à un recrutement « prédictif » ou « augmenté », contre 6 % des organisations les moins performantes.
De quoi s’enthousiasmer ? Les promesses faites par les acteurs du marché sont très importantes : du temps de gagner, des profils mieux identifiés, des stéréotypes éliminés… Au-delà, se posent néanmoins de nombreuses questions techniques, éthiques et juridiques.
Pour y répondre, un projet de règlement de l’Union européenne (« AI-act ») est en préparation. Il classe d’ailleurs les systèmes destinés à être utilisés pour le recrutement ou la sélection de personnes physiques dans la catégorie des « systèmes d’IA à haut risque », celles qui ont des effets potentiels sur les droits fondamentaux. Des règles spécifiques d’information détaillée, de mise en conformité préalable, et d’audit régulier sont prévues pour ces systèmes.
We want to use technology more! So we want to achieve that we trust technology. And if technology is risky, that we get to those risks and deal with it. So we can make full use of all the other options that technology brings. Our #AI legal proposal in a few seconds here ⬇️ pic.twitter.com/XvChlTwloL
— Margrethe Vestager (@vestager) April 22, 2021
Même si le droit du travail français et les textes européens présentent des règles générales qui visent à protéger les candidats à l’embauche, Un règlement européen sur l’IA apparait indispensable. Le constat actuel est celui d’un vrai décalage entre les nombreuses promesses d’efficacité et d’objectivité de ces outils et les rares études scientifiques traitant de ces sujets pourtant fondamentaux. Leur capacité à réduire les discriminations est notamment encore largement à prouver.
Plus efficace, plus rapide, plus inclusif
Les solutions intégrant l’IA concernent aujourd’hui toutes les étapes du processus de recrutement, avec à la clef pour chacune d’elles des promesses d’avantages pour les organisations qui les mettent en place : avantage économique en étant plus rapide et productif au moment de choisir son futur salarié (certains développeurs de ces solutions de recrutement affirment même diviser par quatre le temps nécessaire pour finaliser un recrutement) ; avantage technique en pouvant traiter un grand volume d’information et effectuer des classements selon les critères que l’on souhaite ; avantage éthique en échappant aux stéréotypes mobilisés par les recruteurs humains lorsqu’ils découvrent un CV ou une lettre de motivation.
Au moment de rechercher des candidats, phase dite de « sourcing », la collecte automatisée d’informations en ligne sur les candidats potentiels (le « web scraping ») est présentée comme un gage d’amélioration de l’adéquation entre les besoins de l’entreprise qui recrute et le profil des candidats. Les algorithmes d’analyse vont rechercher des données repérables sur les CV mais aussi des informations récupérées sur les réseaux sociaux, qui sont supposées permettre d’inférer certains traits de personnalité ou compétences particulières chez les candidats potentiels.
Au cours de la présélection des dossiers, des chatbots, à l’instar de Randy, le robot conversationnel développé par Randstad, proposent des tests personnalisés et orientent les candidats vers les métiers les mieux adaptés. L’expérience candidat en serait améliorée, grâce notamment à la diminution du stress ressenti et à la ludification de l’expérience vécue. Pour l’entreprise, il y a là une possibilité de réorienter l’activité des recruteurs vers des tâches plus qualitatives et complexes, en les débarrassant d’étapes très chronophages.
En ce qui concerne la phase d’entretiens, les outils d’analyse automatique de vidéos, que le candidat peut parfois faire seul, sont en plein développement. L’entreprise américaine HireVue propose par exemple d’évaluer les réponses données sur la base des expressions faciales et de la posture corporelle. L’entreprise suisse Cryfe propose quant à elle d’analyser « l’authenticité » des personnes en étudiant leurs signaux verbaux et leur gestuelle.
Le tout prétendument sans activer de stéréotypes portant sur l’apparence physique ou le langage du candidat et par conséquent sans discrimination. À chaque étape du processus de recrutement donc, les promoteurs de ces solutions promettent aux entreprises qui recrutent en les utilisant un recrutement plus efficace, plus rapide et plus inclusif.
Biais de jugement à tous les étages
Certains signaux d’alerte, cependant, ne doivent pas être négligés. Plusieurs études ont par exemple montré que loin de réduire les biais discriminatoires, certains outils de recrutement prédictifs peuvent même engendrer de nouveaux biais de jugement.
Dès l’étape de la programmation de l’outil, les développeurs peuvent incorporer leurs propres préjugés. Les algorithmes associant expressions faciales, traits de personnalité et compétence, notamment, partent de postulats discutables. Plusieurs études concluent que le décodage des émotions est d’une part très complexe et d’autre part culturellement dépendant. Le taux d’erreur pour la reconnaissance d’une expression peut ainsi varier de 1 % pour un homme blanc à 35 % pour une femme noire.
Pour les algorithmes dits de « machine learning », qui s’appuient sur des données pour s’entraîner et s’ajuster, les discriminations se reproduisent en effet facilement. Les bases d’entraînement peuvent être incomplètes et biaisées et rendre les outils rendus moins performants et même discriminants pour les catégories minoritaires.
L’exemple le plus célèbre est celui d’Amazon qui a dû cesser l’utilisation d’un outil de tri automatique de candidatures en 2018. Il discriminait systématiquement les femmes candidatant pour des emplois techniques ou de développeuses web sur la base des recrutements réalisés entre 2004 et 2014 qui avaient, eux, favorisé les hommes.
Amazon’s sexist hiring algorithm could still be better than a human https://t.co/4qsU7gte22
— The Conversation (@ConversationUK) November 2, 2018
En ce qui concerne les tests qui se disent neutres, la « menace du stéréotype » n’est jamais bien loin. Il s’agit d’un effet psychologique selon lequel face à certaines situations de test, un individu peut avoir la sensation d’être jugé à travers un préjugé négatif visant son groupe, ce qui peut provoquer un stress et une diminution des performances. Par exemple, quand une femme passe un test en mathématiques, son résultat peut être affecté par le stress causé par l’idée intériorisée selon laquelle les femmes auraient des capacités inférieures à celles des hommes dans cette discipline.
La passation de tests avec un chatbot, censée être plus ludique, donc moins stressante pour un candidat, pourrait être mal vécue par certaines catégories de candidats. La passation de tests avec un chatbot, censée être plus ludique, donc moins stressante pour un candidat, pourrait néanmoins être mal vécue par certaines catégories de candidats. C’est notamment le cas des candidats les moins familiarisés avec les environnements digitaux et virtuels ; ils pourraient moins bien réussir lorsqu’ils sont confrontés à une méthode de sélection digitale, et ce en raison de stéréotypes générationnels négatifs actionnés (mais aussi le manque d’habitude d’utiliser ce type d’outil, la peur d’être moins performant que les générations plus jeunes…).
L’algorithme peut aussi engendrer des erreurs lui-même en se fondant sur des corrélations fallacieuses, en raison de variables qui amènent de la confusion. Pratiquer le golf peut ainsi être un loisir surreprésenté dans le profil de salariés occupant un poste de cadre dirigeant. Pour autant, l’association entre ce sport et la performance au travail n’est en aucun cas pertinente. Le pire est qu’il est parfois difficile de connaître et d’identifier les raisonnements de certains algorithmes basés sur l’apprentissage profond (deep learning) en raison de la complexité du processus. On parle dans ce cas de modèle de « boite noire ».
Un algorithme inexplicable est un algorithme inacceptable
Prudence est donc de rigueur. Les spécialistes qui travaillent de longue date sur l’intelligence artificielle parlent même parfois d’ « incompétence artificielle » en lieu et place d’intelligence artificielle. Actuellement, les tâches semblent, la plupart du temps, réparties avec une certaine modestie dans les usages : privilégier l’intervention humaine en phase de choix final, et envisager l’usage de l’IA comme outil de présélection et comme aide à la décision.
Grande s’avère cependant la tentation de céder aux sirènes des algorithmes. Comme nous le montrons dans une étude publiée récemment, les recruteurs déclarent certes davantage faire confiance aux recommandations de leurs pairs. Dans les faits, pourtant, ils ont tendance à suivre davantage les recommandations fournies par un algorithme de présélection que celles de leurs collègues. Cela vaut d’ailleurs même quand l’algorithme propose de sélectionner le moins bon candidat.
Nos observations appellent donc à une extrême vigilance : si les recruteurs suivent aveuglément des recommandations, même erronées, fournies par des outils manquant de transparence et d’explicabilité, les risques juridiques et de réputation sont grands pour une entreprise qui utilise ces outils, notamment en cas de discrimination avérée. La nouvelle réglementation initiée par l’Europe, qui devrait être votée cette année, ne paraît ainsi pas dénuée de toute pertinence.
Un algorithme inexplicable est en principe un algorithme inacceptable. Une IA explicable devrait obéir trois principes : la transparence des données utilisées pour fabriquer le modèle ; l’interprétabilité, la capacité à produire des résultats compréhensibles par un utilisateur ; et l’explicabilité, la possibilité de comprendre les mécanismes ayant conduit à ce résultat avec les biais potentiels qu’ils comportent. Anticipant sans doute les difficultés à venir et l’évolution du cadre légal, certaines entreprises proposent déjà aujourd’hui des ajustements intégrants des IA « explicables » dites aussi transparentes, si besoin est, en pratiquant une forme de discrimination positive.
Christelle Martin-Lacroux, Professeure des universités en sciences de gestion / comportement organisationnel, Université Grenoble Alpes (UGA) et Alain Lacroux, Professeur des universités en Sciences de Gestion, Université Paris 1 Panthéon-Sorbonne
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.