Professeur Atienza: Façonner l'informatique durable et l'IA de pointe

© 2023 EPFL

© 2023 EPFL

EPFL professeur David Atienza, du Embedded Systems Laboratory à la Faculté des sciences et techniques de l'ingénieur, a été interviewé par l'organisation “Association for Computer Machinery” (ACM) à l'occasion d'une présentation qu'il a faite en tant que Distinguished Speaker et Fellow. Voici un résumé de cette conversation.

Bien que les systèmes intégrés soient au cœur de vos recherches, vous avez élargi votre champ d'action à un certain nombre de domaines. Y a-t-il un fil conducteur entre les différents projets sur lesquels vous travaillez ?

Le fil conducteur de mes travaux de recherche, qu'il s'agisse de dispositifs intégrés à faible consommation ou de serveurs informatiques haut de gamme, a toujours été le principe de “co-conception”. La co-conception fait appel à des méthodes et à des outils de collaboration pour encourager et permettre à des spécialistes de différents domaines de travailler ensemble à la réalisation d'un projet intégré. Cela signifie que j'étudie comment tirer le meilleur parti du déploiement d'architectures, de méthodologies et de techniques qui étendent l'optimisation au-delà des limites matérielles et logicielles existantes. En effet, mes projets explorent toujours la manière dont le système peut être amélioré en optimisant de manière itérative les aspects matériels et logiciels en boucle fermée.

L'article que vous avez co-écrit, “3D-ICE : Fast Compact Transient Thermal Modeling for 3D ICs With Inter-Tier Liquid Cooling”, a été récompensé par le “10-Year Retrospective Most Influential Paper Award”. Pourquoi la gestion thermique est-elle un aspect si important de la conception des systèmes informatiques ? Quelle a été l'innovation la plus importante dans ce domaine au cours des dix dernières années ?

Les circuits et systèmes numériques dependent de plus en plus sur la puissance, et les contraintes thermiques deviennent bien plus importantes à mesure que la loi de Moore ralentit et échoue. En fait, les systèmes informatiques les plus récents (qu'ils soient à hautes performances ou alimentés par batterie) demandent une gestion de l'énergie et de la chaleur pour fonctionner correctement. La puissance génère de la chaleur, et la chaleur a une influence sur la consommation d'énergie. C'est pourquoi une modélisation thermique précise est indispensable pour évaluer les différentes techniques de refroidissement et la co-conception des systèmes.

Les circuits intégrés tridimensionnels comportent des puces empilées verticalement les unes sur les autres, une technologie qui apporte de grandes performances mais aussi de nouveaux problèmes, en particulier celui de leur refroidissement. Dans notre article sur 3D-ICE publié en 2010, nous avons proposé une méthode théoriquement fondée pour effectuer la modélisation thermique dans l'informatique en 2D et en 3D. Notre outil open-source est très apprécié par les communautés de l'architecture et de l'ingénierie informatique, avec plus de 2 000 utilisateurs enregistrés aujourd'hui (voir 3D-ICE v3.1).

Depuis la publication de cet article, une innovation très importante a été l'inclusion de l'apprentissage automatique pour développer des schémas de gestion thermique. Les chercheurs peuvent utiliser ces nouvelles techniques pour analyser les données de modélisation thermique recueillies avec 3D-ICE afin de déterminer le meilleur point de fonctionnement thermique pour chaque type de charge de travail, dans le contexte d'une conception informatique spécifique ou d'une technologie de fabrication particulière.

Notre outil open-source est très apprécié par les communautés de l'architecture et de l'ingénierie informatique, avec plus de 2 000 utilisateurs enregistrés aujourd'hui.

Les technologies informatiques, y compris l'IA, consomment beaucoup d'énergie. Quelles innovations voyez-vous à l'horizon pour rendre l'informatique plus durable ?

Nous devons comprendre que la durabilité ne concerne pas seulement l'énergie consommée lors de l'exécution d'un certain algorithme par une IA, mais aussi la création du matériel informatique utilisé (par exemple, les GPU, la mémoire, etc.). Par conséquent, nous devons développer de nouveaux schémas d'intégration des systèmes afin de réduire les coûts de fabrication et d'exploiter les dernières solutions hétérogènes de conditionnement des circuits intégrés en 2,5D et en 3D.

Deuxièmement, compte tenu de l'exécution de l'intelligence artificielle ou d'autres charges de travail, de nouvelles innovations informatiques sont nécessaires pour minimiser l'énergie de communication et les surcoûts de performance, en combinant le logiciel (mémoire) et le calcul (logique), plus largement connu comme le nouveau concept de calcul en mémoire.

Troisièmement, les systèmes informatiques à usage général ont un surcoût énergétique et de refroidissement important, par rapport à l'efficacité de calcul et au matériel spécialisé. Nous devons par conséquent développer des méthodologies d'analyse exploratoire des données (EDA) et des outils de synthèse de haut niveau plus efficaces, afin de développer des architectures basées sur des accélérateurs à partir de descriptions de haut niveau d'IA/apprentissage machine/apprentissage profond. Cette approche holistique, avec de fortes synergies entre toutes les couches d'abstraction du processus de conception informatique, minimisera l'énergie pour le fonctionnement et le refroidissement en même temps, afin de viser des systèmes informatiques réellement durables.

Dans le cadre de la série ACM Distinguished Speakers, vous donnez une présentation intitulée Biologically-Inspired IoT Systems for Federated Learning-Based Healthcare (Systèmes IoT à inspiration biologique pour des soins de santé basés sur l'apprentissage fédéré). Pourriez-vous nous en dire un peu sur la manière don’t ce nouveau design peut améliorer la prochaine génération de systèmes informatiques d’intelligence artificielle?

Certains des éléments que j'ai soulevés ont été mis en œuvre dans des systèmes biologiques il y a longtemps au terme de plusieurs millions d'années d'évolution. Cette présentation porte sur la création d'une nouvelle génération de systèmes informatiques d'IA périphérique ; le déploiement d'ensembles de dispositifs de capteurs interconnectés et artificiellement intelligents dans le monde physique. L'idée est de combiner tous les concepts les plus novateurs pour co-concevoir la prochaine génération de systèmes informatiques d'intelligence artificielle, en s'inspirant du fonctionnement des systèmes informatiques biologiques.

Les éléments essentiels de cette nouvelle approche de conception sont la combinaison de plusieurs types de plateformes informatiques spécialisées à très faible consommation (mais imprécises), qui exécutent plusieurs types d'ensembles de réseaux neuronaux. Cela améliorera la robustesse des résultats finaux au niveau du système, tout en minimisant les ressources de mémoire et de calcul.

L'idée est de combiner tous les concepts les plus novateurs pour co-concevoir la prochaine génération de systèmes informatiques d'intelligence artificielle, en s'inspirant du fonctionnement des systèmes informatiques biologiques.

De plus, ces plateformes informatiques spécialisées peuvent s'entraider pour toute tâche informatique en exploitantun apprentissage fédéré et en partageant les informations relatives à leur modèle de réseau, tout en préservant la confidentialité des calculs effectués dans chaque unité individuelle, sans envoyer de données entre les dispositifs d'IA Edge. Ce processus est très similaire à celui du système nerveux humain, lorsqu’il détecte un certain événement à partir de signaux envoyés par différentes parties du corps. Dans les deux cas, la technique est beaucoup plus efficace qu’un transfert de toutes les données vers un seul appareil pour le calcul.