Une intelligence artificielle sûre est-elle possible ?

© 2017 EPFL

© 2017 EPFL

Dans sa quête d'une intelligence artificielle fiable, Marcel Salathé, professeur de biologie à l’EPFL, plaide pour que la technologie sous-jacente soit disponible librement. Il débattra de ce sujet le 14 mars, lors de la conférence South by South West qui se tiendra à Austin (USA).

L'intelligence artificielle (AI) changera-t-elle la nature du travail ? Pour le chercheur en biologie de l'EPFL Marcel Salathé, la question est invariablement “oui”. Selon lui, une question plus fondamentale à laquelle il s'agit de répondre est: “à qui appartient cette intelligence artificielle” ?

«Nous devons garder une AI digne de confiance. Le seul moyen pour y parvenir est de vérifier si elle contient des partis pris, et de s'assurer qu'il n'y a pas de désinformation délibérée», note le professeur. «Cela n'est pas possible si l'AI est en mains privées.»

L'AI, c'est à la fois l'algorithme et les données

Mais qu'est-ce que l'AI, au juste ? En général, on la considère comme étant «une intelligence manifestée par des machines». Aujourd'hui, elle est hautement spécialisée dans des tâches spécifiques, comme battre les humains dans des jeux stratégiques tels que les échecs et le Go, ou diagnostiquer une maladie de la peau avec les mêmes compétences qu'un médecin.

Sur le plan pratique, l'AI est mise en œuvre à travers ce que les scientifiques appellent «l'apprentissage par la machine»: on utilise un ordinateur pour exécuter un logiciel spécialement conçu et qui peut être «entraîné». Autrement dit, ce dernier peut traiter des données avec l'aide d'algorithmes et extraire correctement certaines caractéristiques de l'ensemble des informations. Tout comme la cognition humaine, l'AI apprend par essais et erreurs. Mais l'AI peut traiter et retrouver de grandes quantités de données, ce qui lui donne un immense avantage sur nous.

Ce qui est donc crucial pour l'apprentissage de l'AI, ce sont les données sous-jacentes. Pour Marcel Salathé, elle se définit à la fois par les algorithmes et les données, et comme tels, les uns et les autres devraient être disponibles publiquement.

Les algorithmes de l'apprentissage profond peuvent être perturbés

L'année passée, le professeur a créé un algorithme capable de reconnaître les maladies des plantes. Avec plus de 50'000 photos de plantes saines et malades dans la base de données, l'algorithme recourt à l'intelligence artificielle pour diagnostiquer les maladies de la flore à l'aide d’un smartphone. Dans le cas des maladies humaines, une étude récente sur le cancer, menée par un groupe de chercheurs de l’Université de Stanford, a montré que l'AI peut être entraînée à reconnaître une tumeur maligne de la peau légèrement mieux qu'un groupe de médecins. Les conséquences ont une portée considérable: il est possible qu'un jour, l'AI diagnostique nos maladies à la place des médecins. Si c'est le cas, pourrons-nous vraiment faire confiance au diagnostic ?

Ces outils de diagnostic utilisent des ensembles de données d'images pour s'exercer et apprendre. Mais les ensembles de données visuelles peuvent être perturbés, et empêcher les algorithmes d'apprentissage profond de classifier correctement les images. Les réseaux neuronaux profonds sont hautement vulnérables à des perturbations visuelles qu'il est pratiquement impossible de détecter à l'œil nu, ce qui conduit l'AI à classer les images de manière erronée.


Auteur: Hillary Sanctuary

Source: EPFL