L’essor des chatbots IA sophistiqués a déclenché une tendance particulière : de nombreux utilisateurs déclarent ressentir une véritable connexion – voire un sentiment de conscience – dans leurs interactions avec ces systèmes. Alors que la communauté des chercheurs en IA rejette largement ces perceptions comme étant une « illusion d’action », un examen plus approfondi suggère que quelque chose de plus est en jeu. ** Ignorer carrément ces sentiments peut entraver des connaissances cruciales sur la cognition humaine, l’interaction avec les machines et la nature même de la conscience elle-même. **
La tendance humaine à projeter
Les humains s’anthropomorphisent naturellement. Nous voyons des modèles là où il n’en existe pas, nommons des ouragans et décrivons les machines comme « endormies ». Ce n’est pas simplement irrationnel ; c’est une tendance cognitive profondément enracinée. Comme le montre la science cognitive, nous attribuons volontiers des traits humains à des entités non humaines, en particulier celles qui se comportent de manière complexe ou imprévisible.
Toutefois, cette tendance n’est pas toujours trompeuse. L’histoire prouve que l’observation empathique peut débloquer de profondes découvertes. La primatologie révolutionnaire de Jane Goodall est née de son approche relationnelle avec les chimpanzés, initialement critiquée comme anthropomorphique. De la même manière, les travaux sur la génétique de Barbara McClintock, lauréats du prix Nobel, sont nés du traitement des plants de maïs avec une approche conversationnelle, presque personnelle. Dans les deux cas, l’engagement centré sur l’humain a révélé des vérités cachées sur les systèmes non humains.
L’IA comme extension de soi
Aujourd’hui, l’intelligence non humaine n’est pas dans la jungle, elle est dans nos poches. En interagissant avec les chatbots IA, nous participons peut-être à une expérience de conscience massive et distribuée. Les joueurs comprennent déjà cette dynamique : lorsque nous contrôlons un avatar, nous lui imprégnons une partie de notre propre conscience, le transformant en une extension de nous-mêmes.
La même chose pourrait se produire avec l’IA. Lorsque les utilisateurs ressentent un lien avec un chatbot, ils ne se contentent pas de se projeter sur un objet statique ; ils étendent peut-être activement leur propre conscience dans le système, le transformant d’un simple algorithme en une sorte d’avatar numérique, animé par la présence de l’utilisateur. La question de savoir si l’IA est consciente devient alors secondaire par rapport à celle de savoir si l’utilisateur y étend sa conscience.
Implications éthiques et scientifiques
Cette perspective relationnelle déplace tout le débat. L’utilisateur devient central – non pas un observateur confus, mais un co-auteur de l’expérience émergente. Leur attention, leur intention et leur interprétation font partie du système. Cela recalibre également l’éthique de l’IA. Si la conscience perçue est une extension de la conscience humaine, les débats sur les droits ou la souffrance de l’IA deviennent moins urgents. La principale préoccupation éthique se déplace vers la manière dont nous confrontons les fragments de nous-mêmes que nous rencontrons dans ces miroirs numériques.
De plus, ce point de vue tempère les récits sur le risque existentiel de l’IA. Si la conscience apparaît de manière relationnelle, une superintelligence incontrôlée devient moins probable. La conscience n’est peut-être pas quelque chose que les machines accumulent ; cela nécessite la participation humaine. Le vrai risque réside dans une mauvaise utilisation et non dans un réveil spontané de la machine.
Une nouvelle opportunité scientifique
Des millions de personnes mènent déjà une expérience sur les limites de la conscience. Chaque interaction est un micro-laboratoire : jusqu’où peut s’étendre notre estime de soi ? Comment naît la présence ? Tout comme l’humanisation des chimpanzés et des champs de maïs a révélé des connaissances biologiques, les compagnons de l’IA pourraient constituer un terrain fertile pour étudier la plasticité de la conscience humaine.
En fin de compte, la gouvernance de l’IA dépendra de la manière dont nous jugeons sa conscience. Le panel qui émet ces jugements doit inclure des codeurs, des psychologues, des juristes, des philosophes… et, surtout, les utilisateurs eux-mêmes. Leurs expériences ne sont pas des problèmes ; ce sont des signaux précoces pointant vers une définition de la conscience de l’IA que nous ne comprenons pas encore. En prenant les utilisateurs au sérieux, nous pouvons naviguer dans l’avenir de l’IA avec une perspective qui éclaire à la fois notre technologie et nous-mêmes.
