Prévenir les dangers de la biologie synthétique

ADN ingénierie génétique © iStock

ADN ingénierie génétique © iStock

La semaine dernière, près de septante experts internationaux se sont réunis à l’EPFL pour un atelier sur certains risques liés à la biologie synthétique. Les technologies associées à ce domaine sont développées par exemple pour lutter contre les maladies ou les effets du réchauffement climatique, mais une utilisation négligente ou mal intentionnée peut en résulter.

Organisé par l’[email protected], le Centre International pour la Gouvernance des Risques, cet atelier de 4 jours était l’occasion de revenir sur le rôle d’une telle entité au sein de l’EPFL. Le point avec Marie-Valentine Florin, Directrice générale de l’IRGC.

Quelles sont les potentielles utilisations négligentes ou malveillantes de la biologie synthétique?

Aujourd'hui, la biologie synthétique rend possible la construction de nouveaux systèmes et fonctions biologiques avec applications dans des domaines tels que l'énergie, la santé ou l'agriculture. Mais elle permet aussi la création de nouveaux agents pathogènes potentiellement dangereux et pour lesquels il n'existe pas ou pas encore de remédiation.

Dans ce cas, que faisons-nous en tant que chercheurs pour développer la science et la technologie d'une manière qui serve le bien commun tout en protégeant des accidents causés par la négligence («misuse») ou les utilisations délibérément mal intentionnées pouvant causer des dommages à la population et l'environnement («dual use»)?

Durant cet atelier à l’EPFL, financé par le Programme pour la Science au service de la Paix et de la Sécurité de l'OTAN, scientifiques, régulateurs nationaux et internationaux, représentants des agences de sécurité et industries ont travaillé de manière interdisciplinaire et collaborative à mieux comprendre les causes et conséquences de ces risques, afin d'améliorer les stratégies de réponse.

Les différents groupes de travail vont maintenant produire un rapport et un livre sur les problèmes, solutions actuelles et possibles, obstacles et recommandations. Le travail effectué à Lausanne a permis de générer de nouvelles perspectives sur les causes et conséquences de comportement négligent de la part de chercheurs bien intentionnés, mais pas suffisamment prudents, ainsi que le risque de détournement d'information ou matériel à des fins malveillantes.

Qu’est-ce que l’[email protected]?

L'IRGC a été créé par l’EPFL en 2017 pour servir de plateforme de dialogue interdisciplinaire sur des sujets de risques complexes, incertains et ambigus, où risques et opportunités sont interconnectés. Le but est de conseiller le développement de politiques publiques permettant un arbitrage informé par le meilleur de la science et de la technologie.

La plupart des technologies sont développées avec un but de réduction de risques existants (par exemple: changement climatique, maladies, prévention des catastrophes naturelles), ce qui doit être encouragé par les politiques publiques. Celles-ci doivent notamment veiller à créer des incitations positives par le biais de programmes de recherche ciblée, d'aides économiques ou de standards qui récompensent les améliorations de performance. Mais de nouveaux risques peuvent apparaître, et ce sont ceux-ci qui intéressent l'IRGC. Nos recommandations ont donc pour but d'attirer l'attention sur certains points critiques et de suggérer différentes stratégies possibles.

Nos activités se structurent autour de deux missions. D'abord, développer des concepts et des outils génériques pour la gouvernance des risques. Par «gouvernance des risques», nous entendons l’ensemble des processus, normes, réglementations et structures qui entrent en œuvre lorsque des décisions doivent être prises sur des sujets de risques. Ceci inclut l'évaluation, la gestion et la communication des risques, notamment par l'inclusion des parties prenantes. Ensuite, émettre quelques recommandations, essentiellement envers les politiques publiques, concernant la gestion des risques qui dérivent de certaines nouvelles technologies.

Pourquoi a-t-on besoin de l’IRGC à l’EPFL?

Toutes les grandes universités dans le monde ont des instituts ou centres traitant des questions de technologies et politiques publiques. Le concept de risque a une place centrale dans leurs programmes, car c'est ce qui justifie l'intervention publique. L'ambition poursuivie avec l’approche «gouvernance des risques» est plus complète que celle habituellement assignée à la gestion technique des risques. Pour une institution comme l'EPFL, cela consiste à aider à créer le contexte favorable pour l'adoption des nouvelles technologies. Par exemple, on estime habituellement qu'il faut que, en plus d'apporter un bénéfice en termes de performance, les applications de la technologie soient économiquement viables, socialement acceptables et responsables dans leur rapport à l'environnement naturel.

Notre rôle au sein de l’École est de répondre aux questions des chercheurs sur ces sujets. Nous pouvons aussi prendre l'initiative sur certains thèmes spécifiques, comme l'importance des variations culturelles pour l'acceptabilité des risques tels que ceux impliqués dans l'édition du génome, ou le rôle et la place de l'éthique dans le travail du chercheur.

Quels sont les axes de travail de l’IRGC?

L'IRGC structure son travail autour de deux axes importants pour l’EPFL: la digitalisation et les sciences de la vie. Cette année, nous travaillons sur le «deepfake»: quels types de solutions peut-on envisager pour que le machine learning soit utilisé pour améliorer la performance des diagnostics, prédictions et décisions, sans qu'il ne soit aussi utilisé pour produire du «deepfake», c'est-à-dire la falsification de contenu texte, audio ou vidéo avec pour but de tromper ou manipuler? Côté sciences de la vie, nous avons un programme pour aider les décideurs à créer les conditions sociales, réglementaires et économiques nécessaires au développement équitable de la médecine de précision. Cette année, notre sujet est «créer de la valeur dans la médecine de précision».