Utilisés pour parcourir le web à la recherche du parfait candidat, pour sélectionner parmi les nombreux CV reçus ceux qui méritent qu’on s’y attarde, ou pour faire matcher ces CV avec des offres d’emploi disponibles, les algorithmes s’imposent de plus en plus dans le paysage du recrutement. Leur vertu première : le gain de temps qu’ils procurent en automatisant certaines tâches, comme le tri des CV par exemple.

Mais quel impact ont-ils en termes de diversité ? Parce que les algorithmes sont avant tout des machines, on a tendance à croire qu’ils permettent d’aboutir à des choix plus objectifs. Contrairement aux humains, ils sont dénués de sentiments. Les affects et la subjectivité ne rentrent pas en compte.

Mais est-ce vraiment le cas ? Le Défenseur des Droits et la CNIL prévenaient dans leur rapport « Algorithmes : prévenir l’automatisation des discriminations » paru en mai 2020 que contrairement aux idées reçues, introduire des algorithmes dans nos processus RH peut augmenter le risque de discrimination.

Pourquoi et comment se prémunir d’un tel phénomène sans renoncer au confort de ces outils ? On vous explique tout !

Pourquoi les algorithmes discriminent ?

Les algorithmes sont un outil de recrutement comme d’autres : ils ne sont pas spécialement plus ni moins discriminants que les méthodes traditionnelles. Tout dépend en réalité de la façon dont ils sont créés, entraînés et contrôlés.

Mais comment des opérations algorithmiques, non soumises aux biais subjectifs que connaissent les décisions humaines, peuvent conduire à des discriminations ? Cela s’explique par 4 faits principaux :

#1 – les critères sur lesquels sont construits les algorithmes peuvent être excluants.

Utiliser un algorithme pour recherche un candidat ou trier des CV suppose de décrire précisément les critères de sélection. Aussi, la sélection sera objective vis-à-vis de ces critères, mais encore faut-il que ces derniers ne soient pas excluants ou potentiellement discriminants.

Par exemple, définir la localisation géographique des candidats comme un critère, exclut les personnes habitant en dehors de la zone géographique souhaitée sans tenir compte du fait que ces candidats sont sûrement prêts à déménager pour le poste. De même, on peut demander à un algorithme de prioriser les candidats ayant un diplôme d’école de commerce ou d’ingénieur, ce qui donne alors moins de chance aux parcours universitaires.

Par ailleurs, faire reposer son sourcing ou le tri des CV reçus sur des critères très précis et inflexibles, pénalise les candidats aux parcours atypiques, qui peuvent pour autant avoir toutes les compétences et savoir-être requis.

#2 – Les algorithmes amplifient les biais dont nous les nourrissons pour les créer

En général, pour configurer un algorithme de recrutement, l’entreprise fournit le CV de ses collaborateurs actuels ou des données concernant ses recrutements des dernières années. Ainsi, l’outil repère les compétences communes attendues pour chaque type de poste, ainsi que les profils cohérents avec les valeurs de l’entreprise. Mais s’appuyer sur ces données va nécessairement renforcer l’effet de mimétisme contraire à la promotion de la diversité, en poussant l’algorithme à sélectionner des profils proches des collaborateurs actuels.

De plus, cette base de données repose sur des recrutements qui n’ont pas été nécessairement inclusifs. Les biais qui étaient à l’œuvre dans les recrutements de ces dernières années vont donc se retrouver dans la façon dont l’algorithme va travailler à l’avenir. Certains vont même être amplifiés, car pris pour une règle constante par l’outil informatique.

C’est ainsi qu’Amazon s’est retrouvé en 2014 avec un algorithme qui ne lui proposait plus que des candidatures d’hommes pour les postes techniques. Amazon n’a pas volontairement écrit dans les critères de son algorithme qu’il ne voulait que des hommes, mais comme sur les dix dernières années, l’entreprise avait reçu beaucoup plus de candidatures d’hommes que de femmes à ces postes, la formule mathématique a tiré la conclusion que les hommes avaient pour ce poste un profil plus adapté.

Cet exemple témoigne de la difficulté à construire un algorithme non discriminant et de la nécessité de tester régulièrement à la fois ses règles de fonctionnement et ses résultats.

#3 – Les personnes créant les algorithmes sont rarement formées aux enjeux de la diversité

On l’a vu, les résultats des algorithmes dépendent en grande partie de la façon dont ils ont été écrits et des données qu’on leur a fournies pour les entraîner. Des biais excluant et discriminant peuvent ainsi intervenir au moment de la programmation. En effet, les développeurs qui conçoivent ces algorithmes sont généralement issus de la filière informatique et technologique et peu, voire pas, formés aux ressources humaines et aux enjeux de diversité et de non-discrimination. Il y a donc de forte chance qu’en créant les algorithmes, ils leur transmettent inconsciemment leurs stéréotypes et préjugés.

#4 – Utiliser des algorithmes pour recruter, c’est nier la fracture numérique

Faire reposer une partie de son recrutement sur des algorithmes revient à renforcer la digitalisation de ses processus RH. Cela exclut de facto certaines catégories de populations qui soit ont peu accès à une connexion, soit sont peu familiarisées à l’utilisation de solutions informatiques. C’est en particulier vrai pour les personnes en situation de handicap. Peu d’outils et de plateformes numériques sont aujourd’hui pensés pour être utilisés par ce public.

Comment tirer bénéfice des algorithmes sans discriminer ?

Les entreprises ont un devoir de vigilance par rapport aux outils et algorithmes qu’elles utilisent. Vérifier régulièrement que ces outils garantissent l’égalité de traitement de toutes les candidatures n’est pas aisé car les algorithmes sont souvent protégés au titre de la propriété intellectuelle. Toutefois les entreprises ne sont pas impuissantes face aux sous-traitants qui leurs fournissent ces outils. Voici quelques conseils que vous pouvez mettre en place pour adopter un recrutement inclusif même en utilisant des algorithmes :

  • Assurez-vous que les critères que vous renseignez pour sourcer ou sélectionner les candidats ne sont pas excluant.
  • Choisissez des solutions accessibles pour les personnes en situation de handicap, ainsi que des outils ludiques, simples d’utilisation qui permettent de toucher le plus grand nombre d’individus, y compris des personnes peu formées au numérique.
  • Exigez de pouvoir auditer régulièrement les règles de fonctionnement et les résultats de l’algorithme de votre prestataire, pour tester l’absence de biais discriminatoires.
  • Si vous le pouvez (dans le cadre d’un appel d’offre par exemple), exigez que votre prestataire forme ou ait formé ses développeurs aux enjeux de la diversité et à la non-discrimination.
  • Veillez à ce que votre processus de recrutement ne devienne jamais entièrement numérique, que le recours à l’humain soit toujours possible. Si vous recevez des candidatures papiers, assurez-vous qu’elles sont traitées de la même façon que les candidatures en ligne.