LMi MAG 10 Nov 2021 - Flipbook - Page 44
RETOUR D’EXPÉRIENCE
GRH
était discriminatoire envers les femmes. « Si la plus
grande entreprise de logiciels ne peut pas le faire, je mets
en doute toutes les technologies RH et leurs prétentions
à le faire », déclare Mme Rentschler.
Ne négliger aucun inconvénient potentiel
Il incombe aux entreprises de s’assurer qu’elles utilisent l’IA dans le processus d’embauche de la manière
la plus éthique possible et qu’elles ne sont pas victimes
d’affirmations exagérées sur les capacités de ces outils.
Matthew Scherer, conseiller politique principal pour la
protection de la vie privée des travailleurs au Center
for Democracy & Technology, souligne que, puisque le
département des ressources humaines ne génère pas
de revenus et est généralement considéré comme une
dépense, les dirigeants sont parfois impatients d’introduire des technologies d’automatisation qui peuvent
aider à réduire les coûts. Cet empressement peut toutefois amener les entreprises à négliger les inconvénients
potentiels des logiciels qu’elles utilisent. M. Scherer note
également qu’un grand nombre d’affirmations faites par
les sociétés de logiciels d’embauche d’IA sont souvent
exagérées, voire complètement fausses. « En particulier,
les outils qui prétendent faire des choses comme analyser les expressions faciales des gens, le ton de leur voix,
tout ce qui mesure les aspects de la personnalité - c’est
de la poudre aux yeux », dit-il.
Au mieux, ces outils « mesurent à quel point une personne est culturellement “ normale ” dans le cadre d’un
entretien vidéo », ce qui peut finalement exclure les
candidats handicapés ou toute personne qui ne correspond pas à ce que l’algorithme détermine comme étant
un candidat type. Ces postulants peuvent craindre de
ne pas obtenir les aménagements nécessaires à l’évaluation automatisée s’ils ne divulguent pas leur handicap,
mais ils peuvent aussi ne pas se sentir à l’aise de le révéler aussi tôt dans le processus d’embauche, voire pas du
tout. Selon M. Scherer, les lois sur la discrimination se
divisent en deux catégories : l’impact disparate, qui est
une discrimination non intentionnelle, et le traitement
disparate, qui est une discrimination intentionnelle. Il
est difficile de concevoir un outil qui puisse éviter l’impact disparate « sans favoriser explicitement les candidats issus de groupes particuliers, ce qui constituerait
un traitement disparate au sens de la loi fédérale ».
Réglementation en matière d’embauche d’IA
L’IA est une technologie relativement nouvelle, ce qui
laisse peu de surveillance en matière de législation, de
politiques et de lois autour de la vie privée et des pratiques
commerciales. Ben Winters cite une plainte déposée en
2019 par l’EPIC auprès de la FTC, alléguant que HireVue
utilisait des pratiques commerciales trompeuses liées à
l’utilisation de la reconnaissance faciale dans son logiciel
d’embauche. HireVue prétendait offrir un logiciel capable
de « suivre et d’analyser la parole et les mouvements du
visage des candidats pour pouvoir évaluer l’adéquation,
l’intelligence émotionnelle, les compétences en communication, la capacité cognitive, la capacité de résolution
de problèmes, et plus encore ». HireVue est finalement
revenu sur ses affirmations sur la reconnaissance faciale
et l’utilisation de cette technologie dans son logiciel.
Mais il existe des technologies similaires qui ont recours
aux jeux pour « prétendument mesurer les attributs
comportementaux subjectifs et les faire correspondre à
l’adéquation organisationnelle », ou qui utilisent l’IA pour
« explorer Internet à la recherche d’informations publiquement disponibles sur les déclarations d’un candidat,
puis les analyser pour détecter les signaux d’alarme potentiels ou l’adéquation », estime Ben Winters. La quantité de données que l’IA peut collecter sur un candidat en
analysant ses entretiens vidéo, ses évaluations, son CV,
son profil LinkedIn ou tout autre profil public sur les mé-
Dans un secteur à prédominance masculine
et blanche depuis des décennies, les données historiques
sur lesquelles les systèmes d’embauche de l’IA sont
construits auront finalement un biais inhérent.
44 / novembre 2021