L'IA influence-t-elle les scrutins électoraux?
L’intelligence artificielle peut s’avérer être une arme de désinformation massive, bien que son impact reste limité, révèle un rapport cosigné par des scientifiques de l’EPFL.
De Taïwan aux États-Unis, en passant par le Sénégal, près d’une centaine de pays avaient rendez-vous avec les urnes cette année. L’IA s’est trouvée au cœur des campagnes politiques. Entre deepfake et chatbot, le détournement des technologies déstabilise la confiance du public dans l’information diffusée par les médias, quels qu’ils soient, des chaînes de télévision aux réseaux sociaux. Si la fragilisation de l’information par l’IA est indéniable, qu’en est-il de son impact réel sur les résultats des scrutins ? Basée à l’EPFL, l’Initiative for Media Innovation (IMI) a passé à la loupe les élections de 2024 et publie dans son premier numéro du magazine «Décryptage», une analyse de l’impact de l’intelligence artificielle sur diverses campagnes électorales. Elle est signée du journaliste Gilles Labarthe, en collaboration avec Mounir Krichane et Julie Schüpbach, de l'IMI, ainsi que Christophe Shenk, président du conseil scientifique de l’IMI et responsable coordination numérique Actu à la RTS.
Des figures politiques décédées «ressuscitées»
En analysant avec des spécialistes locaux les différentes campagnes et résultats électoraux, plusieurs experts constatent que l’IA n’a effectivement pas bouleversé les résultats des scrutins. Son impact est donc resté donc limité. Néanmoins, la prolifération des contenus manipulés, amplifiés par des algorithmes, a contribué à une fragmentation des opinions et alimenté un climat de méfiance généralisée. Les deepfakes, ces contenus audiovisuels générés artificiellement pour imiter des personnes réelles, ont marqué l’année électorale aussi bien aux États-Unis qu’en Suisse. Alors qu’en Inde ou en Indonésie, l’usage d’IA générative a franchi de nouvelles frontières: des figures politiques décédées ont été «ressuscitées» sous forme d’avatars numériques pour influencer les électeurs.
La technologie seule ne suffit pas. L’humain reste le maillon faible.
Le rapport de l’IMI souligne que l’histoire des manipulations numériques à des fins de propagande n’est pas nouvelle. Mais l’IA a démultiplié leurs capacités. En période électorale, la production massive et la diffusion rapide de contenus synthétiques – qu’il s’agisse de vidéos, d’images ou de textes – ébranlent la confiance publique. De plus, les auteurs du rapport observent une absence de régulation qui a, en conséquence, permis une prolifération de contenus manipulateurs, illustrant un vide juridique.
Interviewé pour ce décryptage, Touradj Ebrahimi estime que les deepfakes posent des défis techniques, sociaux et éthiques inédits. «Nous sommes confrontés à une course entre outils de création et outils de détection», explique le professeur. Au sein de son laboratoire spécialisé dans le traitement des signaux multimédias, il mène des recherches sur des solutions concrètes pour identifier et limiter les contenus manipulés (voir ci-dessous).
Un effort collectif
Le rapport de l’IMI offre un panorama des défis posés par l’IA dans les campagnes électorales. Il réunit également des pistes concrètes pour limiter les impacts de la désinformation, proposées par des chercheuses, chercheurs, expertes, experts et professionnelles et professionnels des médias ainsi que des actions citoyennes. Parmi les recommandations figure le développement d’outils de traçabilité et de détection des contenus synthétiques, comme ceux développés par Touradj Ebrahimi.
L’importance de la régulation internationale et de la responsabilisation des acteurs technologiques est également mise en avant. Le professeur insiste sur la nécessité d’encourager les initiatives collaboratives de vérification des faits et sur le rôle central de l’éducation dans cette lutte contre la désinformation: «La technologie seule ne suffit pas. L’humain reste le maillon faible. Il est essentiel de sensibiliser les utilisateurs aux risques des fake news et de leur fournir des outils pour vérifier les sources.»
Enfin, le rapport souligne le rôle crucial des gouvernements, des entreprises et de la société civile dans la création d’un environnement numérique éthique et sécurisé. Ce travail de décryptage appelle à une action collective pour restaurer la confiance dans les processus démocratiques à l’ère de l’IA.
La lutte contre la désinformation n’est donc pas seulement une question de technologie, mais, comme le rapport de l’IMI l’indique, il s’agit aussi d’une collaboration entre scientifiques, gouvernements, entreprises, citoyennes et citoyens. Ensemble, ils peuvent redonner à l’information sa crédibilité et restaurer la confiance dans les processus démocratiques.
Le laboratoire spécialisé dans les traitements de signaux multimédias, dirigé par le professeur Touradj Ebrahimi travaille sur la détection et la limitation de contenu manipulé. Par exemple, la norme JPEG Trust combine des outils qui permettent de suivre l’authenticité des images depuis leur création, en passant par chaque étape de traitement numérique, jusqu’à leur diffusion.
«Il ne s’agit pas de trouver une solution unique, mais de multiplier les indicateurs de confiance pour réduire les risques», souligne l’expert. Cette méthode proactive s’appuie sur des signatures numériques qui tracent l’origine des contenus et identifient les éventuelles manipulations.
Touradj Ebrahimi mise également sur les réseaux antagonistes génératifs (GAN), une technologie où deux IA s’affrontent: l’une produit des contenus synthétiques tandis que l’autre cherche à les détecter. Ces systèmes d’autoapprentissage promettent de renforcer la détection des deepfakes les plus sophistiqués, tout en restant accessibles aux médias et aux plateformes numériques.
Créé en 2018, l’IMI réunit des partenaires publics et privés pour stimuler l’innovation dans les médias et les technologies de l’information. Y participent l’EPFL, la SSR et le Triangle Azur (Universités de Genève, Lausanne et Neuchâtel). L’Office fédéral de la communication (OFCOM) soutient également des projets au sein de cette initiative.