Depuis plusieurs années déjà, l’intelligence artificielle fait peu à peu sa place dans la boite à outil des recruteurs. Automatisation du sourcing, analyse des CV, chatbots sur les sites carrières… Ses applications sont nombreuses et de nouveaux usages et outils RH feront probablement leur apparition d’ici peu. Mais utiliser efficacement l’intelligence artificielle demande de bien choisir le type d’algorithme qu’elle mobilise et d’identifier ce qu’elle peut ou ne peut pas faire.

 

Pourquoi s’intéresser aux algorithmes ?

S’intéresser à l’algorithme d’un outil d’intelligence artificielle, c’est étudier sa méthode de travail, les critères qu’il mobilise pour trier et sélectionner un candidat par exemple. Ce sont ces critères qui définissent une politique de recrutement : les évaluer est donc indispensable. Certains algorithmes ne font que répéter ce que des humains leur ont défini comme comme actions. Mais ceux présents dans une intelligence artificielle se basent sur l’analyse de l’évolution de données. Ils créent ainsi leurs propres critères. Avec ce dernier principe, l’algorithme défini lui-même des règles qui vont pouvoir permettre par exemple la sélection ou non d’un candidat.

 

Apprendre aux algorithmes à s’ouvrir à l’inconnu

C’est alors qu’il faut être attentif au risque d’overfitting, ou sur-apprentissage : le risque est que l’algorithme tente de reproduire des schémas qu’il a observés dans sa base de données mais qui n’ont pas de rapport avec les besoins du recruteur ou la réalité de son marché.

Prenons une entreprise qui a recruté un grand nombre d’hommes. En se basant sur cette information, l’algorithme risque de considérer cette caractéristique homme/femme  comme un critère de sélection aussi pertinent que les autres éléments des CV. Il faut donc guider l’algorithme pour éviter des choix discriminatoires.

 

Prendre en compte la diversité des profils

Un des enjeux majeur des RH est de capitaliser sur la diversité des profils. Or, certaines entreprises utilisent des outils d’intelligence artificielle pour les aider à trouver la perle rare, le profil de candidat idéal. Mais en maîtrisent-elles tous les ressorts ?

Avoir un seul type de candidat idéal peut aveugler les entreprises quant à la diversité des parcours et même les mener à reproduire des discriminations. C’est par exemple ce qu’a vécu Amazon : le géant de la distribution avait adopté un robot recruteur qui analysait les candidatures en façonnant ses propres critères. L’analyse de départ prenait en compte la masse salariale d’Amazon dont les femmes étaient sous représentées. L’algorithme détermina ainsi qu’un facteur clé de succès était donc d’être un homme. Les femmes candidates ont alors été automatiquement écartées par l’algorithme sans évaluation objective.

On peut facilement imaginer d’autres types de biais qui pourraient générer tout autant de discrimination au recrutement.

 

Un indispensable regard humain

Si les procédures de recrutement peuvent donc gagner en efficacité grâce aux outils d’intelligence artificielle, ceux-ci risquent aussi d’avoir un effet d’uniformisation voire de discrimination vis-à-vis des candidats déjà défavorisés sur le marché de l’emploi. Ainsi, même si ces derniers sont plutôt favorables à l’utilisation de l’intelligence artificielle pour être recrutés, l’IA n’en est pas toujours impartiale. Et plutôt que d’assurer l’objectivité du processus de recrutement en se basant sur les compétences des candidats, les algorithmes pourraient reproduire donc les préjugés et les biais de précédents recruteur.

A l’ère où l’intelligence artificielle transforme le process de recrutement il est donc primordial d’adopter des outils d’IA transparents sur lesquels les recruteurs pourront ajuster les curseurs. Et sans conteste, un regard humain sera toujours indispensable à une politique de recrutement efficace, responsable et juste.