Partager: 

17.10.17 - Avec un nombre croissant d'utilisateurs, de vidéos mises en ligne et de sortes d’appareils connectés, le modèle actuel du streaming (diffusion de vidéos en ligne) n'est plus viable. En effet, toutes ces vidéos doivent être stockées, et ce en plusieurs formats, pour être visionnées dans de bonnes conditions par un maximum de clients. Les espaces de stockage nécessaires pour les serveurs, déjà immenses, ne cessent d'augmenter, tout comme la consommation d'énergie liée à ces installations. Grâce à ses travaux, le Laboratoire des systèmes embarqués est parvenu à réduire ces besoins en place et en énergie, sans altérer la qualité du visionnement.

Sur internet, une même vidéo est regardée des milliers de fois, mais toujours dans des contextes différents: la marque de l'appareil, la connexion internet et l’environnement changent. Si chaque utilisateur pense recevoir les images dans un format et une qualité qui correspondent exactement à sa situation, en réalité, le service personnalisé n'existe pas. «Les plateformes de streaming, comme YouTube ou Netflix, utilisent deux systèmes, tous les deux inefficaces», résume Marina Zapater Sancho, l'une des auteurs de cette étude développée dans le cadre du projet de recherche européen H2020 «MANGO», dont les résultats seront présentés cette semaine à la conférence «Embedded Systems Week». «Soit elles stockent une seule copie de la vidéo dans la plus haute qualité possible, ou alors des dizaines de copies d'une même vidéo, dans des formats variés.» Dans le premier cas, cela implique de la lenteur et des coupures pour l'utilisateur, dans le second cas, des espaces de stockage immenses pour ces vidéos et une consommation d'énergie qui va de pair. 

Une meilleure allocation des ressources

Dans leur étude, les scientifiques démontrent non seulement qu'une meilleure allocation des ressources est possible, mais en plus que celle-ci permet une économie d’énergie de presque 20%, tout en améliorant l’expérience utilisateur de 37%. L’impact d’une telle économie en consommation et en stockage est immense, puisque le streaming vidéo représente 80% du trafic global sur internet et ne cesse d’augmenter. Pour aboutir à ces résultat, Arman Iranfar, doctorant et également auteur de l’étude, a choisi l’approche de l’apprentissage automatique ou machine learning. «Les ordinateurs apprennent par l’expérience», explique le chercheur. «Nous les avons exposés à de nombreux scénarios, par exemple 1000 clients cliquant sur une vidéo avec des appareils différents. Ils se rappellent des situations positives, et ils les reproduisent.» Grâce à cet «entrainement», l’application qui encode les vidéos (pour qu’elles puissent être visionnées) apprend à mieux allouer les ressources, en visant une combinaison d’objectifs : la compression, la qualité, la performance ou encore la consommation.

L’objectif du visionnement en temps réel

Mais pour le Laboratoire des systèmes embarqués, cette étape n'est qu'intermédiaire. L'objectif des chercheurs est d'arriver au visionnement en temps réel, une situation qui permettrait de stocker une seule copie de chaque vidéo, et de pouvoir, lorsqu’un client souhaite la visionner, en adapter directement le format, la compression, la qualité à sa situation et son appareil en particulier. Et ce en temps réel. «Aujourd’hui, pour y parvenir, il faudrait un ordinateur d'une telle puissance qu'il n'existe pas», résume Marina Zapater Sancho. Or dans ce défi entre performance et énergie, le divertissement n'est pas le seul domaine concerné. «Prenez le cas de l'imagerie par résonance magnétique (IRM)», explique la chercheuse. «Afin de diagnostiquer le plus de patients possibles efficacement, ces machines doivent fonctionner 24 heures sur 24, fournir des images de très bonne qualité qui devraient être stockées pendant au moins la durée de vie du patient». Or actuellement, les malades ressortent de leur IRM avec les images... sur un CD. Inutile de préciser qu'il n'existe pas de plateforme internet avec ces données, que les médecins pourraient partager, visualiser et manipuler en temps réel. Le Laboratoire des systèmes embarqués travaille également au niveau spatial, dans le cadre du projet «Square Kilometer Array (SKA)», qui vise à radiotélégraphier le ciel. L’objectif est de produire d'immenses clichés du ciel, mais d'une qualité permettant d’y rechercher des choses minuscules, ainsi que de les stocker et de permettre leur visionnement. «Du point de vue informatique, le visionnement en temps réel est extrêmement compliqué», conclut Marina Zapater Sancho. «Nous étudions actuellement quelle serait la meilleure architecture possible pour les serveurs, en sachant que nous parlons peut-être de serveurs qui n'existent pas encore.»

Cette recherche est effectuée par le Laboratoire des Systèmes Embarqués, conduit par le Professeur David Atienza Alonso, et dans le cadre du projet européen MANGO H2020, en collaboration avec l’industrie et le monde académique.

Auteur:Clara MarcSource:Mediacom
Partager: