Quand les algorithmes biaisent notre vision du monde

© 2018 EPFL / Alain Herzog

© 2018 EPFL / Alain Herzog

Sur les réseaux sociaux, ce sont les algorithmes qui personnalisent le contenu que nous lisons, au risque de proposer un point de vue toujours plus réduit et extrême. Des chercheurs de l’EPFL ont développé une solution qui permettrait une personnalisation équilibrée, et qui intéresse déjà de nombreux défenseurs des droits de l’homme.

Lorsqu’on clique sur un lien plutôt qu’un autre, le contenu que de nombreux sites vont nous montrer par la suite sera altéré. Les algorithmes utilisés par des réseaux sociaux comme Facebook apprennent de nos préférences, et fournissent de plus en plus de contenu calibré selon ces intérêts... Au risque de ne plus rien montrer de contraire à nos opinions, et de déformer notre vision du monde. «En triant de plus en plus finement ce que vous allez voir, ces algorithmes distordent la réalité. Les réseaux sociaux deviennent alors des caisses de résonance où les opinions tendent vers l’extrême», explique Elisa Celis, chercheuse à la faculté Informatique et Communication de l'EPFL.

Et l’impact sur le lecteur est bien réel. «De nombreuses études ont montré que si vous êtes indécis, l’ordre dans lequel on vous montre une information et sa fréquence de répétition vont vous influencer. Ces algorithmes vont donc façonner votre opinion à partir de données biaisées», poursuit Elisa Celis. Pour répondre à ce problème, la chercheuse a travaillé avec Nisheeth Vishnoi, professeur à l'EPFL, pour développer un système qui empêche la polarisation à l’extrême du contenu proposé aux utilisateurs.

Préserver l’efficacité

Concrètement, ils ont conçu un algorithme qui peut être réglé pour fixer un taux de diversification minimum du contenu. «Un réseau social pourrait choisir de présenter au moins 10% de points de vue opposés à ses utilisateurs, par exemple, afin de garder une vision du monde plus équilibrée», expliquent les chercheurs. L’algorithme pourrait facilement être implémenté dans les systèmes actuels. Le plus gros défi étant inciter les grandes entreprises à s’y intéresser. «Des plateformes comme Facebook dépendent de l’efficacité de ces algorithmes pour leurs revenus publicitaires : nous voulions donc démontrer qu’il est possible de créer un outil tout aussi efficace, mais qui permette une personnalisation équilibrée et équitable», indique Nisheeth Vishnoi.

Sensibiliser les gouvernements à cette problématique serait un facteur important pour combler l’actuel vide législatif qui entoure encore ce domaine. Plusieurs organisations de défense des droits de l’homme ont déjà montré leur intérêt, et les chercheurs de l’EPFL ont pu récemment présenter leur projet devant des délégués d'organisations humanitaires à Genève, y compris des membres du Haut-Commissariat des Nations unies aux droits de l'homme. «Aujourd’hui, aucune régulation n’existe, car l’impact de ces biais introduits par les algorithmes est encore mal connu. En tant que citoyen, je me sens impuissant, car je n’ai aucun contrôle sur ce qui m’est présenté. J’estime que la situation actuelle est dangereuse pour la démocratie et qu’il est essentiel de trouver des alternatives», conclut Nisheeth Vishnoi.

Plus d'informations sur http://theory.epfl.ch/bias/ et https://cns.epfl.ch/


Auteur: Sarah Aubort

Source: EPFL