Notre reflet dans le miroir de l'IA
Prêter des traits humains aux machines n’est pas une nouveauté, mais avec l’essor des intelligences artificielles génératives, l’anthropomorphisme prend une nouvelle dimension. Cette tendance soulève des enjeux philosophiques et éthiques cruciaux, tout en redéfinissant notre rapport aux technologies.
Avez-vous déjà dit «bonjour» ou «merci» à ChatGPT? Si oui, vous avez fait de l’anthropomorphisme. Ce mot bien compliqué à prononcer est de plus en plus présent dans les conversations autour de l’intelligence artificielle (IA). Mais que signifie-t-il? De manière générale, c’est la tendance à humaniser ce qui n’est pas humain, comme un animal ou un objet, et lui prêter des qualités humaines.
Aujourd’hui, la notion d’anthropomorphisme va bien au-delà des robots humanoïdes: elle se greffe aux logiciels qui utilisent l’IA et plus particulièrement l’intelligence artificielle générative (IAG). Contrairement à des IA spécialisées, utilisées pour des tâches spécifiques comme la reconnaissance faciale, les IAG telles que ChatGPT sont conçues pour produire du texte, des images ou d'autres formes de contenu en réponse à une large gamme de requêtes.
Si l’humanisation des outils d’IAG passerait presque inaperçue, cette tendance interroge sur la définition même de l’humanité et de l’intelligence ainsi que sur notre rapport à ces nouvelles technologies. Considérer une machine au même titre qu’un humain comporte-t-il un risque ?
L’anthropomorphisme, dans les gènes de l’IA
Les débuts de l’anthropomorphisme technologique remontent à 1950. Alan Turing, un mathématicien et informaticien britannique, propose une manière révolutionnaire de penser l’intelligence des machines. Son célèbre «test de Turing», au cours duquel un évaluateur humain doit déterminer à partir d’une conversation écrite quel interlocuteur est humain et lequel est une machine, permet d’évaluer la capacité d’une machine à faire preuve d’une intelligence semblable à l’homme.
Ces travaux pionniers ont posé les bases du débat sur l’anthropomorphisme, en soulignant notre tendance à attribuer des caractéristiques humaines aux machines. «Notre attente d’une technologie ou d’une machine est qu’elle soit précise et effectue une tâche de manière plus rapide ou efficace qu’un être humain. Les IAG nous semblent humaines car elles possèdent des caractéristiques propres aux êtres humains: elles sont imprécises, s’adaptent à nos questions et réponses et peuvent être surprenantes», explique Daniel Huttenlocher, doyen du Schwarzman College of Computing au MIT (Masaschussets Institute of technology) et Docteur Honoris Causa 2024 de l’EPFL.
Des technologies qui nous ressemblent
Dans le terme «intelligence artificielle», il y a certes le mot intelligence, mais il y a surtout la notion d’artificielle. Il n’en reste pas moins que «ces systèmes reflètent de vastes ensembles de données et les décisions d’apprentissage de celles et ceux qui les conçoivent», explique Johan Rochel, chargé de cours et chercheur en éthique et droit de l’innovation à l’EPFL. «Ils reflètent également leurs valeurs, croyances, et leur moralité.»
C’est en premier lieu lors de la conception de l’interface de ces systèmes que cette dimension d’anthropomorphisme s’installe. Si les utilisatrices et utilisateurs humanisent l’IA, c’est justement parce que plusieurs caractéristiques humaines lui ont volontairement été attribuées par ses conceptrices et concepteurs. Par exemple, Alexa d’Amazon est dotée d’une voix chaleureuse – en plus d’avoir un prénom humain –, et ChatGPT adopte une politesse et une amabilité qui imitent celles des êtres humains. Ces caractéristiques ont notamment pour but de rendre l’interface facile et agréable à utiliser. «Les meilleurs outils numériques sont réfléchis et construits avec l’utilisateur à l’esprit. Plus ils vont être intuitifs et agréables, plus on va être prêts à les utiliser», souligne Johan Rochel.
Ce n’est pourtant pas si simple de créer l’illusion. Marcel Salathé, co-directeur du Centre IA de l’EPFL explique: «Il s’agit d’un véritable défi technique. Pour qu’un système soit complètement indiscernable d’un être humain, il faudrait qu’il maitrise parfaitement les subtilités du langage, qu’il reconnaisse les émotions et agisse en conséquence et qu’il s’adapte parfaitement à chaque utilisateur selon sa personnalité et ses besoins.»
Tisser des liens
Lorsque ChatGPT nous souhaite bonne chance pour notre événement après lui avoir demandé des idées de noms pour celui-ci, il crée l’illusion d’une relation, rendant l’interaction plus engageante et émotionnelle. L’anthropomorphisme devient ainsi un outil stratégique dans la conception des IA, pour les liens qu’il permet de tisser entre la technologie et ses utilisatrices et utilisateurs.
Selon une étude récente menée par Robert West à l’EPFL, interagir avec une IA qui a accès à nos données personnelles dans le cadre d’un débat peut réellement modifier nos opinions sur certains sujets. Cela soulève des questions sur l'impact social de ces systèmes, qui ne sont plus de simples outils mais deviennent des partenaires d’échange capables d'influencer nos décisions.
Des partenaires virtuels digne de confiance?
Le milieu de la santé voit naitre de plus en plus de services anthropomorphiques à l’attention des patientes et des patients, qu’ils soient sous forme de robots humanoïdes ou de robots conversationnels adaptés au soutien moral et émotionnel. Plus que des liens, l’humanisation et la personnalisation de ces services virtuels établissent une sorte de relation de confiance.
«Les utilisateurs sont de plus en plus informés et attentifs à l’utilisation des outils digitaux. Il y a une demande grandissante pour que ceux-ci soient dignes de confiance. Cette volonté est d’ailleurs appuyée par la législation», explique Johan Rochel. «Bien que les définitions de la confiance peuvent être variées, l’une des composantes clés est qu’elle intervient dans une relation d’humain à humain. Or, dans ce cas précis, nous sommes face à une relation humain-machine. Tous les paramètres qui créent cette illusion d’interaction humaine participent à établir cette relation de confiance. Néanmoins, ces paramètres ne sont pas toujours explicites.» Le texte qui apparait au fur et à mesure que ChatGPT fournit la réponse à une question en est un parfait exemple. «Cela donne l’impression que quelqu’un est en train d’écrire la réponse, comme dans une application de messagerie. On sait évidemment que ChatGPT n’est pas humain mais cette manière implicite de simuler une interaction d’humain à humain contribue à créer un lien, une espèce de relation avec une machine qui prétend nous ressembler.»
Cette illusion de relation peut aller au-delà de simples interactions courtoises. En 2013 déjà, le film HER traitait de cette thématique avec son protagoniste, l’acteur Joaquin Phoenix, tombant amoureux de son assistante vocale interprétée par Scarlett Johansson. Le film interroge sur les relations interpersonnelles et l’influence des IAG sur notre comportement. «Une relation de confiance peut impliquer le partage d’information personnelle et confidentielle, qui, entre de mauvaises mains, peuvent être dévastatrices. Il y a donc des risques liés à la confidentialité», prévient Marcel Salathé.
Une question de responsabilités et de sécurité
Si l’IA est notre égal, pourrait-on alors lui attribuer la faute si notre dissertation comporte des erreurs? Johan Rochel s’interroge: «Cela consisterait à dire que l’IA peut endosser les mêmes responsabilités qu’un être humain. Mais on oublie qu’elle n’est qu’artificielle, cette intelligence. La machine ne peut jamais être responsable puisqu’elle n’est pas autonome. Elle est incapable de prendre des décisions sur autre chose que ce pour quoi elle a été programmée. Il faut donc chercher l’humain responsable derrière la machine. A qui incombe la responsabilité? Aux concepteurs ou aux utilisateurs?»
«J’aime utiliser la métaphore de la fourchette dans le toasteur», rebondit Daniel Huttenlocher. «En voyant les premiers toasteurs des années 1900, on comprend rapidement qu’il était facile de s’électrocuter en y insérant une fourchette. Nous avons donc mis en place des normes contre de mauvaises utilisations pour éviter que ces mauvaises utilisations deviennent elles-mêmes un standard. On doit faire la même chose avec l’IA: il faut mettre en place des garde-fous contre de mauvaises utilisations, établir les responsabilités légales et des normes comprises par tous.»
«Un élément crucial de ces discussions est la transparence. Rappeler le fait qu’il ne s’agisse que d’une machine, qu’elle peut faire des erreurs, va permettre de faire chuter le risque de mauvaise utilisation», ajoute Johan Rochel.
La transparence et l’explicabilité de ces systèmes sont au cœur des débats des législateurs. Le AI Act de l’Union Européenne est clair à ce sujet: les IAG doivent être conçues et présentées de sorte à ne laisser aucune place au doute quant au fait qu’elles ne sont pas humaines. L’usager se doit d’être pleinement conscient qu’il interagit avec une machine.
IA et humanité : un partenariat à construire avec discernement
«L’IA a le potentiel de nous apprendre beaucoup. AlphaGo a appris des stratégies dont les meilleurs joueurs n’avaient pas la connaissance, apportant une nouvelle dimension au jeu de Go», raconte Daniel Huttelocher. «Je vois l’IA comme un partenaire technologique qui améliore, et non pas qui remplace, les capacités humaines.»
«Si l’anthropomorphisme de l’IA facilite l’adoption de ces technologies, il soulève aussi des questions profondes sur la place de l’humain dans un monde où machines et humains sont de plus en plus indiscernables. À mesure que l’IA évolue, il sera essentiel de veiller à ce que ces interactions, aussi naturelles qu’elles paraissent, ne nous éloignent pas de ce qui nous caractérise en tant qu’humaines et humains», observe Marcel Salathé.
À Johan Rochel de conclure: «Les concepteurs, les actionnaires, les législateurs et utilisateurs devraient donc travailler main dans la main pour garantir que cette technologie reste un outil au service de l’humain, et non une force qui le remplace ou le manipule.»