Il n'y a pas de remède miracle contre la désinformation sur Internet

Photo de l'expostion "Deep Fakes: Art and Its Double" qui était présentée à EPFL Pavilions en 2021/2022 © Alain Herzog / EPFL © Midjourney

Photo de l'expostion "Deep Fakes: Art and Its Double" qui était présentée à EPFL Pavilions en 2021/2022 © Alain Herzog / EPFL © Midjourney

Sabine Süsstrunk et Karl Aberer, tous deux professeurs à l’EPFL, soulignent le rôle de l’action humaine, et non de la technologie, dans la lutte contre la désinformation.

Pendant leurs présentations successives lors du dernier congrès annuel de la SSCM qui s’est tenu à Lucerne, Sabine Süsstrunk et Karl Aberer ont mis fin aux espoirs des participantes et participants en matière de technologie. «Ne vous attendez pas à ce que la technologie vienne à la rescousse», a déclaré Sabine Süsstrunk, qui dirige le Laboratoire d’images et représentation visuelle de l’EPFL. «Le meilleur moyen de reconnaître les deepfakes reste l’œil humain et notre capacité de discernement.» Parallèlement, Karl Aberer, qui dirige le Laboratoire des systèmes d’information répartis de l’EPFL, n’était pas plus optimiste quant à une approche technologique universelle de la désinformation générée par l’IA: «Il y aura de la désinformation tant que les sources des informations que nous trouvons en ligne resteront anonymes.»

En tant que chercheurs, Sabine Süsstrunk et Karl Aberer peuvent prendre de la distance par rapport au battage médiatique autour de l’IA et à son rôle dans la désinformation. Mais ils sont pleinement conscients des dangers que représente la désinformation pour le grand public. Leurs présentations concernaient les technologies de pointe et soulignaient la manière dont la surveillance gouvernementale, l’éducation et l’identification des sources influencent toutes les questions fondamentales de la science de l’information et la confiance du public. Après le congrès, nous avons échangé avec les deux scientifiques pour connaître leur avis sur la désinformation générée par l’IA.

Professeure Süsstrunk, vous étudiez le traitement du signal et vous, Professeur Aberer, vous êtes informaticien. Vos domaines convergent-ils aujourd’hui avec l’émergence de l’IA générative de texte en image?

Karl Aberer (KA): En effet, il se passe quelque chose d’intéressant. Nos domaines sont très différents, mais nous constatons une certaine convergence, et cela n’a rien à voir avec les connaissances spécifiques à chaque domaine. Le traitement du signal est avant tout une activité de mathématiques appliquées, qui consiste à comprendre les signaux de faible niveau. Quant à l’informatique, elle consiste à créer des représentations sous forme de modèles informatiques. Sabine Süsstrunk, votre travail implique de transformer des signaux en modèles, c’est exact?

Sabine Süsstrunk (SS): C'est exact.

KA: En informatique, nous nous apercevions de plus en plus que nous pouvions intégrer des signaux dans nos modèles. Aujourd’hui, ces modèles convergent car ils sont créés à l’aide de grands modèles linguistiques. Et les signaux sont en train de disparaître parce que, d’une certaine manière, les traiter n’est plus nécessaire. Tous les travaux antérieurs sont devenus obsolètes.

SS: Tout à fait, il y a une convergence en ce sens. Nous avons toujours été fiers de concevoir nos algorithmes «manuellement». Nous savions exactement comment ils fonctionnaient et nous les décrivions à l’aide d’équations mathématiques. Il s’agissait de la partie mathématiques appliquées du traitement du signal et de l’image. Puis les réseaux neuronaux et les modèles d’apprentissage profond sont arrivés. Aujourd’hui, nous disposons de modèles qui sont utilisés sur de nombreuses images et pour de nombreuses applications, mais nous ne savons pas exactement comment ils fonctionnent.

Avez-vous l’impression de devoir constamment rattraper les géants de la technologie?

SS: Non, pas du tout. C’est motivant de voir que notre domaine évolue de manière intéressante. Nous sommes suffisamment intelligents pour trouver des opportunités sur lesquelles d’autres ne travaillent peut-être pas. Par exemple, nous avons développé un algorithme de segmentation très performant. Aujourd’hui, il n’est plus viable, mais comme j’ai créé le premier, j’ai compris ce qui se passait lorsqu’un nouveau modèle arrivait et le remplaçait. Aussi, nous trouvons toujours de nouvelles idées, on se dit: «C’est une voie intéressante, et je n’ai vu personne l’exploiter.»

KA:Je pense aussi que nous ne sommes pas en train de rattraper le temps perdu. Nous abordons simplement les nouveaux problèmes au fur et à mesure qu’ils se présentent. Par exemple, pendant longtemps, nous nous sommes beaucoup penchés sur la sémantique en informatique. Mais aujourd’hui, nous disposons d’un extraordinaire moteur de génération sémantique qui a éliminé ce besoin. En fait, ce moteur le fait bien mieux que nous, puisqu’il est capable de calculer de grands nombres. Nous nous sommes donc recentrés sur l’optimisation, car les modèles informatiques sont assez coûteux à développer et à utiliser, et il faut réfléchir sérieusement à la manière de les rendre pratiques pour de nombreuses applications. C’était très bien pour moi à titre personnel, car j’ai une formation en bases de données, qui sont essentiellement un problème d’optimisation. Aujourd’hui, notre domaine revient aux systèmes de gestion des données. Les modèles actuels génèrent des quantités de données et nous ne savons pas encore quoi en faire, ni comment les générer et les traiter efficacement.

L’idée de ne pas comprendre exactement comment fonctionne l’IA générative renvoie à la question de savoir comment la réglementer. Professeure Süsstrunk, comme vous l’avez mentionné dans votre présentation, bon nombre de grandes entreprises technologiques pourraient se cacher derrière le fait que l’IA est une boîte noire. Les ingénieurs eux-mêmes ne savent pas vraiment comment certains systèmes fonctionnent. Pensez-vous que cela soit vrai, ou est-ce une façon d’échapper à leurs responsabilités?

SS: À mon avis, les deux. Je suis convaincue que les grandes entreprises technologiques utilisent l’argument de la boîte noire comme excuse parce qu’elles ne veulent pas être soumises à des réglementations. Mais il est vrai que leurs modèles d’intelligence artificielle ont été entraînés sur des milliards de points de données et ont des milliards de paramètres. Si quelqu’un modifie un paramètre donné x, il est logique qu’il ne puisse pas prédire totalement le résultat. Cependant, si les grandes entreprises technologiques savent sur quels ensembles de données leurs modèles d’IA ont été entraînés, si elles ont elles-mêmes programmé et entraîné ces modèles, alors elles devraient en avoir une assez bonne idée et assumer la responsabilité des résultats de ces modèles. L’affirmation des grandes entreprises technologiques selon laquelle elles «ne savent pas comment tout fonctionne» n’est pas sans fondement. Mais conclure ensuite qu’elles peuvent se désintéresser des résultats des modèles est, à mon avis, une façon de fuir leurs responsabilités.

KA: Des choses très nouvelles sont en train de se produire. Les modèles de génération de texte ont connu un changement de phase il y a deux ou trois ans. Ils ont franchi un seuil et ont soudain obtenu des résultats radicalement meilleurs. Cela est clairement lié à la taille des modèles. Mais aujourd’hui, nous avons déjà largement dépassé ce seuil. Pour prolonger la métaphore du changement de phase, les modèles d’IA générative sont en train de passer à un nouvel état. Cela est peut-être dû à la quantité de données disponibles. Mais nous devons être prudents car les ingénieurs ne comprennent pas en détail ce qui se passe dans les modèles. Cela dit, je pense qu’ils ont une bonne compréhension globale.

N’oublions pas non plus que ces modèles pourront un jour dialoguer entre eux. Ils n’auront plus besoin de nous et nous ne savons pas ce qui se passera lorsqu’ils commenceront à interagir. Les modèles commencent déjà à développer leur propre langage. Ils peuvent générer des textes illisibles pour les êtres humains, mais pas pour d’autres modèles. Nous ne comprendrons donc même pas ce qu’ils se disent. C’est très intéressant.

Professeur Aberer, dans votre présentation, vous avez souligné le rôle de la gestion de la réputation dans la lutte contre la désinformation. Comme vous l’avez clairement montré, la réputation d’une source est indissociable de son identité, et il est souvent plus efficace d’identifier les sources fiables que d’en examiner simplement le contenu. Voyez-vous des systèmes d’identification fiables à venir?

KA: Il existe déjà des méthodes d’identification des sources. Par exemple, l’édition scientifique est fortement ancrée dans l’établissement de l’identité des autrices et auteurs. Il est très difficile de faire publier un article dans une revue réputée sans vérifier que vous en êtes bien l’autrice ou l’auteur. Il peut y avoir des tricheurs occasionnels, mais pas à grande échelle. Les organes d’information sont assez semblables. Le New York Times a une solide réputation. Si une information provient du The New York Times, alors vous n’avez probablement pas besoin de vérifier les faits. Il n’y aura donc pas une seule solution, mais plutôt une combinaison de solutions. Le grand problème aujourd’hui, c’est que les gens peuvent diffuser toutes sortes d’informations sans vérifier leur identité. Je pense que la plupart des internautes ne sont pas conscients de l’ampleur du problème, ou ne croient tout simplement pas qu’il existe.

Pour finir, si nous ne pouvons pas compter uniquement sur la technologie pour lutter contre la désinformation, pensez-vous qu’il existe des mesures réglementaires qui pourraient faire la différence?

SS: Dans ma présentation, j’ai abordé les progrès réalisés dans la technologie des deepfakes depuis 2017. Les évolutions sont tellement rapides que, si les organismes de réglementation veulent les maîtriser, ils doivent garder une longueur d’avance sur les développeurs. Et je crains que notre système politique ne soit pas conçu pour ce type de réponse rapide.

KA: Tout à fait. Les intérêts financiers qui sous-tendent ces développements ne font qu’aggraver la situation. Même si notre système politique garantissait le type de compréhension technologique qui permettrait aux pouvoirs publics de réglementer efficacement, des intérêts financiers solidement établis s’y opposeraient.

SS: Je crois qu’il s’agit avant tout d’une question d’éducation. L’IA a également le potentiel d’ouvrir des possibilités d’apprentissage exceptionnelles. Nous devons donc enseigner aux gens la bonne façon d’utiliser la technologie tout en étant conscients de ses limites. Je pense que c’est la menace la plus immédiate à laquelle il faut s’attaquer.

KA: Oui, l’IA doit être considérée comme un outil. Elle accélérera la manière dont nous traitons l’information, tout comme les avancées technologiques précédentes. Demain, nous progresserons probablement en même temps que la technologie, car les systèmes d’IA seront au moins aussi puissants que nous, voire plus, pour traiter l’information. Et nous interagirons sans doute avec des systèmes qui en font plus que ce que nous comprenons. Le fait que certains systèmes aient déjà développé leur propre langage en est un exemple. Il s’agit presque d’une nouvelle étape dans le développement humain. Ce n’est qu’une pure spéculation de ma part, mais elle met en évidence les défis inhérents à la réglementation de ce type de technologie, à condition qu’il y ait la volonté politique et la capacité de le faire.

Le congrès annuel de la SSCM 2023 – «What Do We Pay Attention To? Les innovations numériques en compétition pour attirer l’attention» – a été organisé par l’Institut de communication et marketing (IKM) de la Haute école de Lucerne. La session au cours de laquelle les professeurs Sabine Süsstrunk et Karl Aberer ont présenté leurs exposés, intitulée «Technology or Media: Who will Save Quality Information?», a été coprésidée par le Center for Digital Trust de l’EPFL et l’Initiative for Media Innovation de l’EPFL.


Auteur: Michael Mitchell

Source: People

Ce contenu est distribué sous les termes de la licence Creative Commons CC BY-SA 4.0. Vous pouvez reprendre librement les textes, vidéos et images y figurant à condition de créditer l’auteur de l’œuvre, et de ne pas restreindre son utilisation. Pour les illustrations ne contenant pas la mention CC BY-SA, l’autorisation de l’auteur est nécessaire.