«Notre manière de questionner l'éthique de l'IA est très politique»

EPFL/ iStock

EPFL/ iStock

En amont de la conférence AI & Ethics Week, coorganisée par le Collège des humanités et le Center for Digital Trust de l’EPFL, Johan Rochel, expert en éthique, nous parle de l’importance du débat international et intersectoriel sur les impacts de l’intelligence artificielle.

Johan Rochel © EPFL

La conférence AI & Ethics Week, qui se tiendra en ligne du 7 au 11 février, accueillera des experts d’Asie, d’Europe et des Etats-Unis et donnera la parole à des intervenants des secteurs de la recherche, de l’industrie, des médias et de la politique.

«Cette conférence est une occasion importante d’avoir une discussion ciblée qui réunit des chercheurs, des entreprises et un plus large public pour voir où nous en sommes concernant l’intelligence artificielle et le débat éthique», souligne Johan Rochel, chercheur au Collège des humanités (CDH), qui se chargera de modérer l’atelier du mardi sur la culture et l’éthique.

Il fait remarquer que, par le simple fait que l’intelligence artificielle soit omniprésente aujourd’hui, il est essentiel de réunir des voix de différentes cultures et disciplines.

«L’IA est une technologie d’application générale. Elle est utilisée partout et influence notre manière de travailler, d’utiliser un réseau social ou encore de regarder la télévision. Même le terme “intelligence artificielle” fait partie du débat éthique élargi que nous devons avoir; en disant “AI”, on laisse entendre que l’intelligence humaine est en compétition avec l’intelligence des machines. Par exemple, “prise de décisions automatisée” est un terme plus neutre.»

Amener les débats sur l’IA au niveau suivant

Dans le cadre du panel sur la culture et l’éthique, Johan Rochel prévoit de demander à trois experts de Chine, des Etats-Unis et d’Europe de présenter leurs perspectives sur l’éthique et l’IA. Il soutient que comprendre les récits culturels est un élément central, mais souvent négligé du puzzle que constitue le cadre mondial pour réguler l’application des technologies fondées sur l’IA. Par exemple, les discussions reliant la culture et la technologie jouent un rôle important pour comprendre comment différents groupes définissent des concepts clés, tels que la responsabilité et la vie privée.

«La manière dont nous posons des questions sur l’IA et l’éthique est une affaire très politique, parce qu’elle est fortement liée à nos différents systèmes juridiques et politiques. La Chine, les Etats-Unis et les pays européens ont des traditions complètement différentes en matière de protection des données des citoyens, par exemple», explique le chercheur.

Il ajoute que même si certaines applications de l’IA posent problème, le débat ne devrait pas s’arrêter là: il est important de discuter de l’intégration culturelle de la technologie.

«Nous devons expliciter ces récits et amener le débat au niveau suivant», déclare-t-il.

Convergence vers une régulation internationale

Cofondateur et codirecteur d’Ethix, une entreprise de conseil en éthique de l’innovation, Johan Rochel est pleinement conscient du rôle que les grandes sociétés, en tant que principaux producteurs de technologies d’IA, jouent dans ces discussions.

«On a tendance à ne parler que des Etats et des gouvernements, mais nous devons impliquer dans le débat ces puissantes multinationales, ainsi que les réguler», souligne-t-il.

Mais est-ce réaliste de penser que l’éthique de l’IA peut être contrôlée à un niveau mondial?

Johan Rochel, qui donne un cours sur l’éthique de la loi et de l’intelligence artificielle dans le cadre du programme d’enseignement en Sciences humaines et sociales au CDH, concède qu’il est extrêmement complexe d’élaborer des lois internationales pour gérer l’IA, une technologie numérique qui se répand si facilement à travers les frontières géographiques, sociétales et disciplinaires. Néanmoins, il pense que c’est possible.

«L’IA suscite des défis uniques, ça ne va pas être facile. Mais nous devons trouver un moyen de réguler cette technologie et de traiter les questions qu’elle soulève en matière de justice, défend-il. Les réglementations nationales ne vont pas résoudre les problèmes posés par l’IA; nous devons trouver un consensus et une manière de voir les problèmes qui converge vers un point.»

AI & Ethics Week

Outre Johan Rochel, l’EPFL sera représentée lors de la conférence AI & Ethics Week par Carmela Troncoso, professeure à la faculté informatique et communications (IC) et cheffe du labo SPRING, Lê Nguyen Hoang, chercheur à l’IC, et Marie-Valentine Florin, directrice exécutive de l’International Risk Governance Center (IRGC).

Cet événement de l’EPFL est organisé conjointement par le CDH et le Center for Digital Trust (C4DT). Les inscriptions sont gratuites, mais obligatoires. Le programme complet et les informations détaillées sur les inscriptions sont disponibles sur c4dt.org/ai_ethics_week.

Auteur: Celia Luterbacher

Source: EPFL

Ce contenu est distribué sous les termes de la licence Creative Commons CC BY-SA 4.0. Vous pouvez reprendre librement les textes, vidéos et images y figurant à condition de créditer l’auteur de l’œuvre, et de ne pas restreindre son utilisation. Pour les illustrations ne contenant pas la mention CC BY-SA, l’autorisation de l’auteur est nécessaire.