Un premier mécanisme pour détecter la propagande sur Telegram

Logo Telegram. © iStock
La nouvelle méthode développée par des chercheuses et chercheurs de l’EPFL, en collaboration avec des collègues allemands, est efficace, rapide et peu coûteuse. Elle pourrait aider à lutter contre la désinformation sur Telegram.
Les campagnes de désinformation et la propagande touchent non seulement les médias sociaux traditionnels, mais aussi les services de messagerie tels que WhatsApp, Telegram et Signal. Et pourtant, il existe peu d’études scientifiques sur ces derniers à ce jour.
Désormais, des chercheuses et chercheurs affiliés au Laboratoire d’ingénierie de la sécurité et de la protection de la vie privée (SPRING) de la Faculté informatique et communications de l’EPFL et à l’Institut Max Planck pour la sécurité et la protection de la vie privée ont mis au point, en collaboration avec des collègues de l’Université de la Ruhr à Bochum, en Allemagne, une nouvelle méthode permettant d’identifier les comptes qui diffusent systématiquement de la propagande sur les canaux Telegram.
Dans certains pays comme la Russie et l’Ukraine, Telegram est l’une des principales plateformes d’information. La modération des contenus y est assurée par les personnes qui dirigent un groupe ou un canal. Il n’y a pas d’autorité indépendante de vérification des faits. Les personnes modératrices peuvent définir librement leurs propres règles dans leurs groupes et canaux, et il est fréquent qu’ils doivent supprimer manuellement les contenus indésirables. À cette fin, certaines utilisatrices et utilisateurs ont également recours à des logiciels, mais ces outils reposent généralement sur des critères très simples, par exemple la détection des propos obscènes.
Identification des réseaux de propagande russes et ukrainiens
Comme indiqué dans leur article, les équipes ont analysé 13,7 millions de commentaires provenant de 13 canaux Telegram, en se concentrant sur la politique et l’actualité. 1,8% des commentaires se sont révélés être de la propagande. La majorité avait été diffusée par un réseau pro-russe, qui avait posté jusqu’à 5% de tous les messages sur certains canaux. Le groupe de recherche a également découvert un plus petit réseau de propagande pro-ukrainien.
Comment fonctionnent les comptes de propagande
Le mécanisme de détection est basé sur les réponses des comptes de propagande aux comptes d’utilisatrices et d’utilisateurs ordinaires. Comme le montre l’étude, les comptes de propagande sur Telegram ne déclenchent pas de conversations, mais répondent aux commentaires d’autres utilisatrices et utilisateurs qui contiennent certains mots-clés, comme Poutine ou Zelensky.
«L’une des caractéristiques les plus notables des comptes de propagande est qu’ils publient des messages avec les mêmes formulations à différents endroits, parfois sur différents canaux. Alors que les comptes ordinaires publient des messages uniques, les comptes de propagande forment de vastes réseaux qui diffusent les mêmes contenus de manière répétée», explique Carmela Troncoso, professeure associée, directrice du laboratoire SPRING.
Les scientifiques ont utilisé cette fonctionnalité pour programmer un mécanisme de détection automatisé. Il a été capable de reconnaître la propagande sur la base d’un seul commentaire avec un taux de succès de 97,6%, soit 11,6% de mieux qu’un être humain.

© 2025 EPFL / Ruhr University
L’efficacité de la modération humaine est variable
Dans le cadre de son étude, le groupe a également analysé l’efficacité de la modération contre la propagande. Les résultats varient considérablement d’un canal à l’autre. Alors que certains canaux d’information ont réussi à identifier et à supprimer près de 95% de la propagande, ce taux était d’un peu moins de 20% sur d’autres. Selon les opérateurs de canaux, la suppression des contenus de propagande nécessite beaucoup d’interventions manuelles. Le nouvel outil de détection pourrait réduire considérablement le temps et les efforts requis.
«Les personnes modératrices de contenu ne sont pas disponibles 24 heures sur 24 et une exposition permanente à la propagande peut aussi avoir un impact sur la santé mentale. C’est pourquoi nous espérons que notre algorithme contribuera à améliorer la modération sur Telegram», conclut Klim Kireev, doctorant au laboratoire SPRING et premier auteur de l’étude.
Présenté la semaine dernière par la professeure Rebekah Overdorf de l’Université de la Ruhr à Bochum, précédemment à l’EPFL, lors du 34e symposium sur la sécurité USENIX. Les autrices et auteurs ont reçu un Distinguished Poster Award pour leur travail.
Publication originale
Klim Kireev, Yevhen Mykhno, Carmela Troncoso, Rebekah Overdorf: "Characterizing and Detecting Propaganda-Spreading Accounts on Telegram", 2025, Symposium sur la sécurité USENIX, Seattle, États-Unis.