LMi MAG 10 Nov 2021 - Flipbook - Page 43
© metamorworks - iStock
l’embauche des techniciens depuis les années 1980. Néanmoins, utilisée efficacement, celle-ci peut contribuer
à créer un processus de recrutement plus efficace et plus
équitable, selon les experts.
Les dangers de la partialité dans l’IA
Envisager l’existence de biais avec l’IA est toujours une
préoccupation. En science des données, le biais est défini comme une erreur qui découle d’hypothèses erronées
dans l’algorithme d’apprentissage. Entraînez vos algorithmes avec des données qui ne reflètent pas le paysage
actuel, et vous obtiendrez des résultats erronés. Ainsi,
en matière d’embauche, surtout dans un secteur comme
l’informatique, qui a connu des problèmes historiques de
diversité, former un algorithme sur d’anciennes données
peut s’avérer être une erreur fatale. « Il est très difficile
de s’assurer qu’un logiciel d’IA n’est pas intrinsèquement
biaisé ou n’a pas d’effets biaisés », affirme Ben Winters,
chargé de l’IA et des droits de l’homme à l’Electronic Privacy Information Center (EPIC) – un centre de recherche
indépendant à but non lucratif situé à Washington. Bien
que des mesures puissent être prises pour éviter cela,
« il a été démontré que de nombreux systèmes ont des
effets biaisés sur la race et le handicap », ajoute-t-il.
vous n’avez pas un ensemble de données représentatif,
ou un certain nombre de caractéristiques sur lesquelles
votre décision repose, alors vous n’allez pas trouver et
évaluer les candidats correctement », explique Jelena
Kovačević, professeure d’ingénierie et première doyenne
de l’école d’ingénieurs de l’université de New York.
Le principal problème de l’utilisation de l’IA dans
l’embauche est que, dans un secteur à prédominance
masculine et blanche depuis des décennies, les données
historiques sur lesquelles les systèmes d’embauche de
l’IA sont construits auront finalement un biais inhérent. En l’absence d’ensembles de données historiques
diversifiés pour former les algorithmes de l’IA, les outils
d’embauche liés à cette technologie risquent fort d’être
entachés des mêmes préjugés que ceux qui existent dans
« Si vous ne disposez pas d’une diversité appréciable
dans vos données, il est impossible pour un algorithme
de savoir comment les individus issus de groupes
sous-représentés se seraient comportés dans le passé.
Au lieu de cela, votre algorithme sera biaisé et comparera tous les futurs candidats à cet archétype », explique
Jelena Kovačević. « Par exemple, si les personnes noires
étaient systématiquement exclues ou que vous n’aviez
aucune femme dans votre entreprise, et que vous créez
un algorithme basé sur cela, alors il n’y a aucune chance
pour que le futur prédise une diversité dans les profils.
Si vous n’embauchez que des candidats issus d’universités privées, dites “ Ivy League schools ”, vous ne savez pas
vraiment comment un candidat issu d’une école moins
connue va se comporter, il y a donc plusieurs niveaux de
biais », enchaîne-t-elle. Wendy Rentschler, responsable
de la responsabilité sociale de l’entreprise, de la diversité,
de l’équité et de l’inclusion chez BMC Software, est parfaitement consciente des inconvénients potentiels que
l’IA peut apporter au processus d’embauche. Elle cite en
exemple le cas tristement célèbre de la tentative d’Amazon
de développer un outil de recrutement par IA. L’entreprise a dû arrêter le projet parce que l’algorithme
43