Comment détecter les criminels sur Signal ou WhatsApp?

© iStock

© iStock

Les technologies de chiffrement garantissent qu’on ne puisse pas intercepter les données envoyées d’un dispositif à un autre. Mais que faire quand ces dernières sont relatives à des activités criminelles? Ana-Maria Cretu du Laboratoire d’ingénierie sécurité et confidentialité de l’EPFL, commente les tensions entre sécurité numérique et confidentialité.

A l’ère du numérique, nous laissons tous derrière nous des traces numériques. Les messageries chiffrées de bout en bout, comme Signal et WhatsApp, représentent une solution pour assurer la confidentialité des communications. Mais, selon les gouvernements et les agences de sécurité, ces systèmes de chiffrement empêchent de dépister les activités criminelles, comme les échanges de contenu pédopornographique, les activités terroristes et le trafic de stupéfiants ou de personnes. Ils préconisent l’utilisation d’une technologie d’analyse côté client, laquelle permettrait de détecter les contenus pédopornographiques dans les communications chiffrées de bout en bout. Ils affirment que ce procédé ne compromet pas le chiffrement. Ana-Maria Cretu, chercheuse au Laboratoire d’ingénierie sécurité et confidentialité de l’EPFL — un laboratoire dont l’expertise est à l’interface de l’apprentissage machine, de la confidentialité et de la sécurité — fait part de ses réserves concernant l’analyse côté client lors d’une discussion organisée par le Centre pour la confiance numérique (C4DT), à l’EPFL.

Dans les grandes lignes, le chiffrement ressemble à une lettre dans une enveloppe. Le document ne peut être lu lorsqu’il transite de l’expéditeur au destinataire, et casser le chiffrement implique d’endommager l’enveloppe lors du transport. Avec l’analyse côté client, le chiffrement reste intact, mais pas la confidentialité, puisque cela équivaut à lire la lettre au moment où elle est écrite ou après l’ouverture de l’enveloppe.

Le chiffrement de bout en bout garantit que seuls les clients à chaque bout de la chaîne de communication, soit l’expéditeur et le destinataire, puissent lire le message. «Plus de deux milliards de personnes dans le monde utilisent des plateformes équipées d’un système de chiffrement de bout en bout comme Signal et WhatsApp et ils échangent sur ce dernier plus de 100 milliards de messages par jour», explique Ana-Maria Cretu.

Analyse côté client et empreinte digitale de l’image

L’analyse côté client implique d’examiner les données du côté client de la communication, comme la lettre ou l’image que vous voulez envoyer ou avez reçu sur votre smartphone. Dans le cas de matériel pédopornographique, cette technologie analyserait les images et les comparerait à celles d’une base de données de contenu figurant des abus sur des mineurs. Puisqu’il est illégal de détenir ce type de matériel, les experts en cybersécurité ont mis au point une manière de caractériser les images dans la base de données à travers un processus appelé «empreinte digitale». «L’algorithme d’empreinte digitale est conçu de sorte qu’il préserve les spécificités principales de l’image, pour effectuer des comparaisons pertinentes, en tenant en compte des transformations simples, comme le redimensionnement, le recadrage ou la conversion dans un autre format», explique Ana-Maria Cretu. La comparaison a lieu avec les empreintes digitales de l’image. Depuis 2021, on a fait pression pour faire passer l’Online Safety Act, au Royaume-Uni, ainsi qu’une régulation de contrôle des messageries dans l’Union européenne, afin de permettent aux agences gouvernementales de contraindre les sociétés à détecter des contenus illégaux dans leurs communications.

La confidentialité compromise

Ana-Maria Cretu affirme que, dans son état actuel, l’analyse côté client comporte trop de problèmes à la fois techniques et éthiques, qui rendent prématurée son implémentation. Non seulement cette approche va à l’encontre de l’objectif du chiffrement, mais elle mettrait en péril la confidentialité et introduirait la menace d’une surveillance de masse, susceptible de mettre en danger la démocratie moderne.

«Bien que les matériaux pédopornographiques représentent un problème sociétal majeur, la lutte contre ceux-ci requiert des mesures autres que la technologie, conclut Ana-Maria Cretu. On pourrait envisager une collaboration plus intense et rapprochée entre chercheurs et décideurs politiques, pour aider à définir des solutions efficaces et suffisamment robustes, à même d’être déployées en toute sécurité, tout en continuant de préserver la confidentialité des communications privées.»

Une analyse faillible

D’abord, les systèmes de détection comportent des marges d’erreur. C’est-à-dire qu’ils pourraient erronément signaler certains contenus. «Il s’agit d’images dont la possession est légale, et pas des contenus visés, explique Ana-Maria Cretu. Mais le système les identifie à tort comme malveillantes. Cela peut être des photographies intimes produites de manière consensuelle, des images d’enfants à la plage ou partagées par les parents avec leur pédiatre. Si le système devait les signaler, elles seraient partagées avec les autorités, comme les forces de l’ordre ou le fournisseur de contenu, pour un examen en personne. Cela peut conduire à la suspension ou au gel des comptes des utilisateurs. Dans une telle situation, les gens ne voudraient pas risquer le blocage de leur email ou de leur messagerie. Il y aurait donc un effet de dissuasion. Le point important, ici, c’est que l’on violerait la vie privée de millions de personnes.»

Un système contournable

Un autre problème de l’analyse côté client, c’est qu’on peut la tromper, tout particulièrement s’il s’agit de matériel pédopornographique, poursuit la chercheuse. Les criminels vont tenter de dissimuler leurs activités. Selon elle, «les éléments dont nous disposons suggèrent que les solutions d’analyse côté client ne seraient pas efficaces pour repérer des contenus pédopornographiques en présence de tels adversaires. Ceux-ci pourraient manipuler l’image en lui appliquant un filtre et échapper à la détection».

La liberté d’expression en danger

«Aujourd’hui, l’analyse côté client a pour objectif de détecter des copies de matériel pédopornographique. Demain, de nouveaux types de contenus pourraient être ajoutés à la liste, complète Ana-Maria Cretu. En conséquence, les gouvernements pourraient vouloir élargir le champ d’application, par exemple au terrorisme et à d’autres types d’activités criminelles, aux discours dissidents, ou aux contenus LGBTQ+, selon le lieu où les mesures sont implémentées. Pour ce faire, une solution consiste à étendre la base de données. Mais alors, qui en a le contrôle? On pourrait utiliser l’analyse côté client pour transformer les téléphones des personnes en outils de surveillance, et c’est un peu effrayant.»

Pour aller plus loin, lisez le C4DT Focus: "The Encryption Dilemma - Protecting privacy amid rising security concerns", rédigé par Hector Garcia-Morales.


Auteur: Hillary Sanctuary

Source: EPFL

Ce contenu est distribué sous les termes de la licence Creative Commons CC BY-SA 4.0. Vous pouvez reprendre librement les textes, vidéos et images y figurant à condition de créditer l’auteur de l’œuvre, et de ne pas restreindre son utilisation. Pour les illustrations ne contenant pas la mention CC BY-SA, l’autorisation de l’auteur est nécessaire.