Un modèle d'IA pour mieux comprendre le langage corporel animal

Les mouvements d'Alona suivis par le modèle SuperAnimal. © Kaosmovies / EPFL 2024

Les mouvements d'Alona suivis par le modèle SuperAnimal. © Kaosmovies / EPFL 2024

L’analyse comportementale peut donner beaucoup d’informations sur l’état de santé ou les intentions d’un être vivant. Une technologie développée à l’EPFL permet à un modèle d’apprentissage profond de le faire en milieu naturel. Ce «modèle de fondation» nommé SuperAnimal, qui fonctionne sur des dizaines d’espèces, sera utile aux efforts de protection des animaux, de biomédecine et de recherche en neurosciences.


Difficile de faire dire à un cheval s’il est heureux ou s’il a mal en posant sa patte… Mais son corps, lui, exprimera la réponse à sa manière, par ses mouvements. Une douleur intense se traduira par une boiterie, livrant un diagnostic évident. Des expressions faciales peuvent aussi exprimer certains sentiments – pour qui sait les reconnaître. L’intelligence artificielle a toutefois les capacités d’automatiser l’analyse de ces mouvements, aussi subtils soient-ils. Développer de tels outils permet non seulement de supprimer les biais observationnels, mais aide aussi les humains à tirer des conclusions plus rapides et plus fiables.

Mouvements d'une jambe de cheval analysés par SuperAnimal.

Aujourd’hui s’ouvre un nouveau chapitre de l’analyse de posture et les sciences comportementales. Le laboratoire de Mackenzie Mathis, à l’EPFL, publie dans Nature Communicationsun article qui décrit un nouvel outil « open source » particulièrement efficace. Sous le nom de « SuperAnimal », il est capable de reconnaître automatiquement, sans supervision humaine, l’emplacement de points-clés, notamment les articulations, sur plus de 45 espèces animales. Et fonctionne même sur des animaux imaginaires !

SuperAnimal détecte même les articulations de ce Wolpertinger généré par GPT-4.

«La pratique actuelle permet aux utilisateurs de créer des modèles d’apprentissage profond, mais ils reposent sur un intense travail humain destiné à l’identification des points-clés sur chaque animal, explique Mackenzie Mathis. Or cela peut déboucher sur de très nombreuses désignations pour un même organe, créant de la confusion lorsque l’on veut combiner des bases de données. Notre méthode uniformise tout cela et rend notre modèle 10 à 100 fois plus performant que les outils actuels.»

La «méthode SuperAnimal» est une évolution d’une technique que le laboratoire de Mackenzie Mathis avait déjà distribuée sous le nom de «DeepLabCut», mise en lumière récemment dans un article de Nature.

«Nous avons ici développé un algorithme capable de compiler un grand ensemble de bases de données observationnelles autour d’un langage harmonisé», explique Shaokai Ye, post-doctorant et premier auteur de l’étude. «Nous appelons cela le préapprentissage du modèle. L’utilisateur peut ensuite développer notre modèle ou l’adapter à ses propres données».

Ces avancées rendront beaucoup plus accessible le recours à l’analyse de mouvement. «Les vétérinaires sont bien sûr particulièrement intéressés, de même que la recherche biomédicale, en particulier dès lors qu’il s’agit d’observer le comportement de souris de laboratoire. Mais cela va plus loin», affirme Mackenzie Mathis, citant les neurosciences et… les athlètes, canins ou autres ! D’autres espèces – oiseaux, poissons et insectes – seront bientôt intégrées dans le modèle. «Nous travaillons à son intégration dans des modèles de langage, de manière à ce que les utilisateurs disposent d’une interface en langage naturel», reprend la chercheuse, citant AmadeusGPT, publié sur NeurIPS, qu’elle a développé avec Shaokai Ye et leurs collègues.

SuperAnimal est accessible dès aujourd’hui à la communauté des chercheurs via sa distribution en « open source » (github.com/DeepLabCut).

Références

SuperAnimal pretrained pose estimation models for behavioral analysis, by Ye et. al., Nature Communications, 12 June 2024, DOI: 10.1038/s41467-024-48792-2


Auteur: Emmanuel Barraud

Source: Sciences de la vie | SV

Ce contenu est distribué sous les termes de la licence Creative Commons CC BY-SA 4.0. Vous pouvez reprendre librement les textes, vidéos et images y figurant à condition de créditer l’auteur de l’œuvre, et de ne pas restreindre son utilisation. Pour les illustrations ne contenant pas la mention CC BY-SA, l’autorisation de l’auteur est nécessaire.