Comment peut-on quantifier la diversité?

Emma Lejal Glaude © EPFL 2022

Emma Lejal Glaude © EPFL 2022

Diplômée d’un master en science des données de l’EPFL, Emma Lejal Glaude s’est penchée sur l’équité en intelligence artificielle et apprentissage machine au sein du plus important opérateur de télécommunications suisse, Swisscom.

Pour Emma Lejal Glaude, le besoin d’équité en apprentissage machine est une évidence. «Prenez le cas classique que vous apprenez avec les ensembles de données ouverts, les classifications botaniques. Si vous confondez toutes les roses avec les lys, elles ne se sentiront pas offensées, mais dès qu’il s’agit d’êtres humains vous devez faire preuve de prudence.»

Emma Lejal Glaude a d’abord étudié les systèmes de communication avant de décrocher un master en science des données à la Faculté informatique et communications (IC) de l’EPFL en 2019. Elle a effectué sa thèse de master au sein de Swisscom à un moment où l’on parlait d’équité en apprentissage machine, puis elle est devenue la première ingénieure en données, analytique et IA du département des ressources humaines.

Chez Swisscom, l’initiative autour de l’équité en intelligence artificielle a débuté comme projet de recherche avant d’être appliquée au département des ressources humaines, où le recrutement était le domaine qui prenait le plus d’ampleur. «Nous avons tenté de surveiller les décisions de recrutement prises par la personne chargée du recrutement et le responsable hiérarchique pour voir si nous pouvions découvrir des tendances inconscientes. Par exemple, est-ce qu’un responsable ou une personne chargée du recrutement a une forte propension à choisir des personnes qui lui ressemblent? Nous avons utilisé les données classées et agrégées des personnes candidates et des collègues pour répondre à cette question avec l’analytique», raconte Emma Lejal Glaude.

Grâce aux données démographiques, elle a également orienté ses travaux sur la mesure de la diversité des équipes et personnes candidates existantes. La mesure qu’elle a obtenue, qui calcule la probabilité de choisir deux individus appartenant à différents sous-groupes, s’inspire de l’indice de diversité de Simpson, une manière de calculer la diversité des espèces d’une communauté. Plus la probabilité est élevée, plus votre équipe est diversifiée. Toutefois, la taille des équipes et le nombre de sous-groupes ont une influence sur la valeur maximale. Pour y remédier, elle a normalisé la valeur de l’équipe théoriquement la plus diversifiée possible. Cette formule permet de comparer les niveaux de diversité de manière granulaire, en fonction de la taille des équipes et du nombre de sous-groupes.

Si nous prenons une équipe constituée de 11 personnes et que nous définissons leur couleur de cheveux comme étant châtain, roux et blond, nous obtiendrons les résultats suivants:

Elle est très fière de permettre au département RH d’expérimenter ses données et d’envisager de nouvelles manières de les exploiter. «C’est vraiment un emploi idéal. J’ai l’impression que l’analytique RH peut contribuer à résoudre les problèmes des entreprises.»

Emma Lejal Glaude a toujours aimé résoudre des problèmes. Dès son plus jeune âge, elle voulait devenir ingénieure, sans savoir dans quel domaine. C’est le cours sur le web analytique de l’EPFL qui a été un déclic. Elle a compris que la science des données est un outil puissant et elle a voulu s’y consacrer.

«Plus vous en apprenez sur l’apprentissage machine, plus vous constatez ce qu’il est capable de faire ou de ne pas faire et plus vous comprenez, or tentez de réfuter, les craintes des gens par rapport à l’intelligence artificielle et à son développement. Nous savons que les algorithmes d’apprentissage machine amplifieront ou élimineront les aspects négatifs des êtres humains car ils ne sont pas conscients. Ils utilisent simplement nos données, et ces données qui enregistrent les décisions et les comportements humains sont biaisés. Nous n’avons pas d’autre choix que de faire avec notre patrimoine historique. Je suis convaincue que nous avons la responsabilité de dire que nous savons que ces connaissances sont biaisées, mais que, mathématiquement, nous pouvons y remédier.»


Auteur: Tanya Petersen

Source: Bureau de l'Egalité

Ce contenu est distribué sous les termes de la licence Creative Commons CC BY-SA 4.0. Vous pouvez reprendre librement les textes, vidéos et images y figurant à condition de créditer l’auteur de l’œuvre, et de ne pas restreindre son utilisation. Pour les illustrations ne contenant pas la mention CC BY-SA, l’autorisation de l’auteur est nécessaire.