Aller au site principal

Actualités

Carmela Troncoso remporte un prix Google en sécurité

© Carmela Troncoso/EPFL

© Carmela Troncoso/EPFL

Carmela Troncoso, professeure à la Faculté Informatique et Communications (IC) de l'EPFL, a été honorée par Google pour son travail sur la protection de l’intimité numérique et du machine learning de sécurité.

Carmela Troncoso a rejoint l'EPFL en 2017 en tant que responsable du « Security and Privacy Engineering Laboratory » (SPRING). Elle est l'une des premières lauréates des Google Security and Privacy Research Awards, qui ont été annoncés l'an dernier comme un moyen de « reconnaître les universitaires qui ont apporté une contribution majeure dans ce domaine ». Un comité de chercheurs chevronnés de Google sélectionne les lauréats, qui seront au nombre de sept en 2018, dont Carmela Troncoso.

Le laboratoire SPRING travaille sur de nouvelles façons de penser pour protéger les utilisateurs des inconvénients du machine learning.

« Nous vivons dans un monde où le machine learning nous domine - il existe de nombreux systèmes conçus pour tirer des leçons des données et prendre des décisions qui ont une incidence sur notre vie et nous avons peu de moyens de nous défendre » explique Carmela Troncoso.

Le laboratoire étudie l'introduction de petits morceaux de données modifiées dans les systèmes comme les plateformes de médias sociaux pour éviter que les algorithmes de machine learning n'apprennent trop.

« Le machine learning est très efficace pour déduire des informations à partir de données, mais cela peut poser un problème de confidentialité lorsque l'algorithme peut déduire votre sexe, vos préférences ou vos projets pour la semaine prochaine » dit-elle.

Elle et ses collègues développent également ce qu'ils appellent des technologies d'optimisation protectrice pour les situations où les algorithmes de machine learning posent des problèmes au lieu de les résoudre. Par exemple, une application de planification d'itinéraire peut optimiser un trajet en suggérant au conducteur de faire un détour par un village pour éviter un embouteillage. Mais l'application ne tiendra pas compte des habitants de ce village, qui pourraient être sérieusement touchés si des centaines de conducteurs prenaient le détour suggéré. Un exemple de technologie de protection pourrait être un outil pour aider les urbanistes à décider de la quantité minimale de trafic qui doit être déviée pour réduire la congestion.

Solutions ouvertes

Le prix Google est assorti d'un financement de recherche de $75 000. Carmela Troncoso espère utiliser les fonds pour mettre au point des technologies de protection à accès libre ainsi que des outils d'évaluation de la protection de la vie privée qui fourniront un cadre pour tester et améliorer la sécurité des systèmes fondés sur le machine learning.

« La confidentialité et la prise de décisions sont les deux faces d'un même problème, car les décisions et les optimisations sont basées sur ce qu'un système peut apprendre sur vous. Nous voulons que les gens vivent dans un monde numérique sans renoncer à leurs droits et à leur individualisme, c'est pourquoi nous construisons des technologies pour atteindre cet objectif » résume Carmela Troncoso.


Auteur: Celia Luterbacher
Connexion