Un jeu pour explorer les questions éthiques dans le machine learning

© Julie Clerget/ 2023 EPFL

© Julie Clerget/ 2023 EPFL

A l’heure où l’intelligence artificielle est devenue omniprésente, Cécile Hardebolle, Conseillère pédagogique au Centre pour l’éducation à l’ère digitale (CEDE) de l’EPFL, développe des ressources pour les enseignant-es qui souhaitent intégrer les notions d’éthique dans le cursus de celles et ceux qui concevront les modèles algorithmiques de demain.

Apporter un soutien aux enseignant-es

À l’EPFL, pas moins de 223 cours abordent des concepts en lien avec le Machine Learning et de plus en plus d’enseignant-es travaillent à y intégrer des notions d’éthique. Mais ces questions sont par nature difficiles à aborder et nécessitent de développer des approches d’enseignement spécifiques.

Cécile Hardebolle est chercheuse spécialisée dans le domaine de l'enseignement de l'ingénierie. Avec Patrick Jermann et Maria Carla Di Vincenzo, elle mène le développement d’un nouvel outil pédagogique prenant la forme d’un jeu. Basé sur une histoire interactive s'inspirant de cas réels, cet outil permet aux étudiant-es de se confronter virtuellement à ces problématiques et de les explorer en toute sécurité.

Jouer pour mieux apprendre

À l’origine se trouve un prototype développé par deux étudiant-es de Master, Alexandre Pinazza et Ester Simkova, dans le cadre du cours intitulé « How People Learn : Designing Learning Tools II » enseigné par Roland Tormey.

« Le but de l’exercice était de concevoir un outil permettant de soutenir et d’intégrer l’apprentissage de concepts liés à l’éthique et à la durabilité dans les domaines des sciences et de l’ingénierie. Nous avons beaucoup aimé l’idée proposée par Alexandre et Ester qui repose sur un scénario interactif, un peu à la manière de ces livres dont vous êtes le héros. Nous avons donc affiné leur idée en retravaillant le schéma narratif pour inclure des activités d’analyse, de réflexion et d’auto-évaluation des réactions affectives. » explique Cécile Hardebolle.

Après une phase d’évaluation en laboratoire (dont les résultats sont en cours de publication) puis un premier pilote dans la classe « Machine learning for behavioral data » de la professeure Tanja Käser, le jeu a été testé par des enseignant-es en écoles d’ingénieur-es lors de la 50ème conférence annuelle de la Société Européenne pour la Formation des Ingénieurs (SEFI).

Le but ce semestre était de valider l’intégration du jeu dans une séquence de cours. « Le cadre du cours de Nicolas Flammarion et Martin Jaggi s’y prêtait à merveille car ils s’intéressent tous deux aux questions d’éthique numérique et avaient déjà commencé à introduire ces notions dans leur programme l’an dernier » explique-t-elle.

C’est donc dans le cours intitulé « CS-433 : Machine learning » enseigné à plus de 500 étudiant-es par les deux professeurs que le dispositif est venu s’insérer.

Une collaboration née d’un constat commun

Cécile Hardebolle et Nicolas Flammarion
Cécile Hardebolle et Nicolas Flammarion

« On pourrait croire qu’un algorithme n’est pas un raisonnement humain et qu’il va donc être impartial et n’aura pas de biais dans sa décision mais c’est totalement faux. Ce qu’il est important d’avoir en tête, c’est que les données que l’on va utiliser comportent énormément de biais.

Que toute la phase entre la collecte des données, leur utilisation et les prises de décisions par les algorithmes va souvent non seulement préserver ces biais mais également en introduire d’autres. En fin de compte, on arrive à une décision qui peut avoir de lourdes conséquences par exemple pour un groupe sous-représenté » explique Nicolas Flammarion.

« Notre volonté venait surtout de cette idée que l’on forme des ingénieur-es qui ont vocation à exercer des responsabilités, à prendre des décisions dans le monde académique mais aussi dans le monde du privé dans l’entreprise. »

Un constat qui fait écho du côté de Cécile Hardebolle : « Il est vraiment important que l’on forme nos étudiant-es à réfléchir à l’impact négatif que peut avoir une technologie qu’ils et elles vont concevoir. Comment peut-on s’assurer que les bénéfices attendus ne soient pas totalement ruinés par les dommages que cette technologie peut causer ? »

L’objectif est de développer la capacité de nos ingénieur-es à répondre aux besoins de la société tout en minimisant les risques associés au développement des technologies.

Cécile Hardebolle

Une mise en situation 100% virtuelle

Les étudiant-es ont disposé de la semaine précédant le cours de Nicolas Flammarion pour jouer en ligne. Le jeu plonge les étudiant-es dans la peau d’un-e data scientist mandaté-e pour développer des modèles soulevant d’importantes considérations éthiques.

Interface du jeu.
© CEDE / 2023 EPFL

Avant une décision de conception importante, le jeu marque une pause et demande aux étudiant-es de réfléchir et de motiver leurs choix. L’histoire se poursuit ensuite en fonction des conséquences générées par ces choix et confronte les futur-es ingénieur-es à leurs propres biais cognitifs ainsi qu’aux dangers liés à la nature des données utilisées. À la fin du jeu, le scénario propose de réexaminer ses choix de les reformuler à la lumière de ce qu’ils-elles ont appris en mettant l’accent sur les émotions ressenties face aux conséquences.

© 2023 EPFL

Une session de débriefing permet de faire le lien entre l’expérience du jeu vécue par les étudiant-es et les concepts éthiques sous-jacents, puis le cours vient apporter les aspects mathématiques permettant d’identifier, évaluer et quantifier les biais tout en passant en revue les méthodes permettant de les réduire.

Les critères d’équité sont toutefois sujets à des limites et ne permettent pas d’éliminer toutes les problématiques. « Il est important de garder à l’esprit que le Machine Learning n’a aucune garantie d’être aligné à nos valeurs sociétales si l’on ne prend pas les mesures nécessaires » souligne Nicolas Flammarion. « C’est pourquoi il me paraissait nécessaire de développer un chapitre dédié. Le travail de Cécile Hardebolle et du CEDE vient parfaitement renforcer ces notions et cela a permis de lancer la réflexion en amont de ma leçon. »

Inscrite dans une plus large volonté d’introduire les notions d’éthique dans l’éducation des ingénieur-es, cet outil d’apprentissage est soutenu par le programme « P-8 Digital skills » de swissuniversities. Il est à disposition de tous-tes les enseignant-es de l’EPFL et s’ajoute aux interventions développées par le CEDE et le Centre d’appui à l’enseignement (CAPE), membres du Centre LEARN pour les sciences de l’apprentissage de l’EPFL.

Financement

Programme "P-8 Renforcement des digital skills dans l’enseignement" par swissuniversities.

Références

Hardebolle, C., Kovacs, H., Simkova, E., Pinazza, A., Di Vincenzo, M. C., Jermann, P., Tormey, R., & Dehler Zufferey, J. (2022). A Game-Based Approach to Develop Engineering Students’ Awareness About Artificial Intelligence Ethical Challenges. Proceedings of the 50th SEFI Annual Conference 2022: Towards a New Future in Engineering Education, New Scenarios That European Alliances of Tech Universities Open Up, 2276‑2281. https://doi.org/10.5821/conference-9788412322262.1283
Infoscience: https://infoscience.epfl.ch/record/299932?ln=en