vendredi 4 décembre 2020

L’IA doit encore faire ses preuves pour se faire une place dans le marché du travail

 Réussir à transformer les RH en recruteurs augmentés, voici les atouts souvent prêtés à l’intelligence artificielle. Entre mythe et réalité, quatre experts expliquent les atouts et les points faibles de la technologie dans le marché du recrutement.


Des chatbots à l’utilisation des robots pour prédire la réussite d’un candidat au poste de commercial, il n’y a apparement qu’un pas que certaines startups et entreprises seraient prêtes à franchir pour optimiser leurs recrutements. Si la technologie possède des avantages certains et une capacité d’analyse que l’humain ne peut pas concurrencer, l’IA est-elle un outil utilisable aujourd’hui pour trouver des perles rares ? À l’occasion d’un débat sur le sujet organisé par la Cnil ce 9 novembre, Sarah Kerel, Laurence Devillers (professeur en intelligence artificielle au LIMSI-CNRS), Stéphanie Lecerf (DRH France de PageGroup), Michael Cottura (responsable IA à pôle emploi) et Henri Isaac (Président du think tank Renaissance numérique) estiment tous qu’un important travail reste encore à faire avant de pouvoir associer efficacement technologie et humain dans les processus de recrutement.  


Combattre les biais de l’intelligence artificielle  

Interpellée sur le rôle de l’intelligence artificielle dans le processus de recrutement, Laurence Devillers s’est montrée catégorique : ses faiblesses limitent son usage. « On parle beaucoup d’intelligence artificielle mais il y a encore beaucoup de recherches à faire pour connaitre ses limites et pouvoir l’utiliser à bon escient, et pourtant je suis pro technologie » . Au-delà de la simple analyse de CV par mots-clés, les modèles en cours d’élaboration tendent à analyser les émotions et les expressions des candidat·e·s. « Ces outils sont peu fiables » et ne prennent pas assez de mesures et de spécificités en considération, comme les personnes enrouées ou qui possèdent un cheveux sur la langue.

Pour Stéphanie Lecerf, le problème des algorithmes vient d’abord de leurs créateurs. « Ceux-ci sont développés par des ingénieurs et des développeurs qui ont globalement tous le même profil. On note un manque de diversité, en termes de genre mais aussi d’origine géographique dans ce secteur » , avoue t-elle. Or, il reste encore bien compliqué de remarquer ses propres biais, surtout lorsqu’ils font partie de notre matrice depuis notre enfance.

L’autre point faible signalé par la DRH de PageGroup et Henri Isaac reste la qualité des données utilisées pour entraîner ces algorithmes. « Nous avons peu de visibilité sur le traitement algorithmique en matière de soft skills. Or, l’objectif actuel est de recruter sur des métiers en transformation, pas sur des compétences passées » , rappelle Stéphanie Lecerf. Et malgré l’importante quantité de données possédées par les entreprises sur leurs salarié·e·s, « celles-ci ne sont pas toujours de bonne qualité, elles le sont rarement même. Les employé·e·s qui restent ne sont pas forcément les meilleur·e·s et les licenciements ne reflètent pas toujours la réalité d’une situation » , renchérit Henri Isaac. C’est pourquoi il est important de travailler les informations utilisées pour construire les solutions de recrutement semi-automatisées. 


Surveiller les algorithmes 

Avant de faire entrer l’intelligence dans le marché de l’emploi et lui donner le pouvoir d’établir des bons et des mauvais points entre les candidat·e·s, il faut d’abord les auditer. « On ne devrait pas utiliser des outils d’apprentis sorciers tant que n’aurons pas une évaluation assez claire des choses » , conclut-elle.


source : maddyness

Aucun commentaire:

Enregistrer un commentaire