top of page

L'intelligence artificielle peut-elle ressentir des émotions et des sentiments ?

  • Photo du rédacteur: Stéphane Guy
    Stéphane Guy
  • 22 mars
  • 13 min de lecture

Dernière mise à jour : 23 mars

Voici un sujet à la fois technique et philosophique. L’intelligence artificielle est-elle capable, ou sera-t-elle capable un jour de ressentir des émotions ou des sentiments ? Au moment où l’IA progresse de manière extrêmement rapide et que l’on commence à théoriser l’émergence de super intelligence artificielle capable de raisonner comme l’homme, il est pertinent de se poser ce genre de question. L’essor des chatbots et autres agents conversationnels nous fait nous demander si l’IA sera capable un jour de ressentir « véritablement » des émotions, ou d’avoir des sentiments. Comment cela serait-il possible ? Et comment définir les sentiments humains ? Focus.

Un robot qui sourit avec des enfants
Image générée par intelligence artificielle

En bref 


  • L’émotion est une réaction intense et brève, tandis que le sentiment est un état affectif plus durable.

  • Le cerveau joue un rôle clé dans ces réactions, mais leur fonctionnement exact reste partiellement inconnu.

  • L’IA peut détecter et analyser les émotions humaines grâce au NLP, à la reconnaissance faciale et à l’analyse vocale.

  • Malgré ces avancées, les émotions ne se résument pas à des expressions faciales ou vocales, ce qui complique leur interprétation par l’IA.

  • Si l’IA ne ressent pas d’émotions, elle influence pourtant des domaines comme l’éducation et la santé mentale.

 

Qu’entend-on par émotions et sentiments ?


Définition des émotions et des sentiments


Il est important, avant de rentrer dans le vif du sujet, de savoir de quoi nous parlons et de définir correctement les termes principaux de notre sujet. Commençons par les émotions et les sentiments. D’après le Larousse, une émotion est un « trouble subit, agitation passagère causée par un sentiment vif » ou encore une « réaction […] transitoire d’assez grande intensité ». Une émotion est donc un événement de courte durée, intense, et qui a souvent un effet extérieur, comme un mouvement de recul, des frissons… l’émotion est souvent forte, et se manifeste dans le réel.


Un sentiment, quant à lui, et toujours selon Larousse, est un « état affectif complexe et durable lié à certaines émotions ou représentations. » Le sentiment est donc un état plus long et durable dans le temps par rapport à l’émotion, dont il peut être issu. Une émotion forte, comme une porte qui claque la nuit où un film horrifique sera ressenti sur le moment, mais peut ensuite nous procurer un sentiment de peur qui, lui, va demeurer plusieurs heures ou jours après notre émotion.



Mais quel est le rôle du cerveau dans tout cela ? Car, si l’on veut comprendre les émotions et les sentiments, et/ou ensuite les répliquer dans une intelligence artificielle, il faut savoir comment cela fonctionne n’est-ce pas ? C’est là tout le problème : nous n’en savons encore rien. Tor Wager, un professeur en neurosciences à l’université du Colorado spécialisé dans la question a mené des recherches sur le sujet et a conclu que « chaque émotion correspondrait en fait à une recette composée à partir d’ingrédients non spécifiques que sont l’ensemble des processus cognitifs, affectifs, perceptifs et moteurs de base ».* Impossible donc de mettre au point un schéma précis pour comprendre comment tout cela fonctionne.


 

cependant, cela ne nous empêche pas de connaître certaines choses à propos de notre cerveau, et heureusement ! Par exemple, on sait qu’« un épisode émotionnel correspond à un bouleversement cérébral dont la fonction est d’adapter le cerveau (et le reste de l’organisme) à la situation qui a généré ce sentiment, qu’il s’agisse de joie, de colère, de dégoût, etc. Les modifications sont donc multiples et complexes. ».* En clair, nos émotions permettent d’envoyer le signal à notre corps de se préparer à la situation de manière adaptée. Certaines zones du cerveau vont être sollicitées et envoyer des signaux au reste de notre corps pour réagir au mieux. Par exemple, un sentiment de peur va souvent solliciter l’amygdale, une région de notre cerveau en grosse partie responsable de la peur, qui va ensuite envoyer des signaux à notre corps pour s’y préparer de manière adéquate : battements de cœur accélérés pour un plus grand afflux de sang en vue d’un effort (comme la fuite), tension plus élevée pour rester sur ses gardes, etc.



La bannière musicale de l'album Mad Society

 

L’intelligence artificielle et l’analyse des émotions


Comment l’IA détecte et interprète les émotions humaines ?


Avant de se demander si l’intelligence artificielle est capable de ressentir des émotions, il est intéressant de se demander si cette dernière peut les détecter et les différencier. En effet, il paraîtrait paradoxal qu’une IA revendique des émotions si elle ne sait même pas les interpréter chez l’humain. Alors qu’en est-il ?


Ce domaine d’étude est lié au NLP, pour Natural Language Processing, ou Traitement Automatique du Langage Naturel en français (soit TALN). Il s’agit d’un champ d’étude qui permet aux IA de comprendre, interpréter, manipuler, mais aussi générer du langage humain à l’oral ou à l’écrit. Le NLP a donc pour but de permettre aux IA de comprendre les interactions et les discours humains pour ensuite devenir de plus en plus naturel. La promesse du NLP est de donner naissance à des modèles d’IA capables d’identifier les sous-entendus d’un texte. On parle aussi de « L’analyse des sentiments ou “Opinion Mining” » qui « identifie les informations subjectives d’un texte pour extraire l’opinion de l’auteur. »*



Autre domaine de la reconnaissance des émotions : la vidéo et les images. On a tous entendu parler des algorithmes capables de détecter les émotions sur nos visages. Bien-sûr, les IA sont entraînées à cela dans le but de mieux communiquer avec nous. Si on peut dire que de manière globale, une personne qui sourit est heureuse et une personne qui ne sourit pas est malheureuse, ou exprime des émotions plutôt négatives, la communauté scientifique et psychologique est loin de s’accorder sur l’universalité des émotions sur notre visage.


En effet, « la psychologue Lisa Feldman Barrett défend l’idée que les expressions faciales ne révèlent pas les émotions. Pour la directrice du Laboratoire interdisciplinaire des sciences des affects de la Northeastern University (Boston), il est temps que les partisans de l’IA émotionnelle et les entreprises qui fabriquent et commercialisent ces produits reconnaissent que les mouvements des muscles faciaux ne correspondent pas universellement à des émotions spécifiques. »*



L’intelligence artificielle peut donc être induite en erreur si elle se base uniquement sur notre visage pour détecter notre humeur et nos émotions du moment. Un constat qui fait sens quand on pense aux cas des personnes ne ressentant aucune émotion ou capable de les dissimuler comme les individus atteints de psychopathie. Le lien entre émotions et démonstrabilité par le visage est complexe et dépend d’une foule de facteurs autre que les muscles de notre visage.


Dans un autre registre, on peut aussi parler de l’analyse vocale, moins mise en lumière dans l’actualité. Pourtant, notre voix peut en dire beaucoup sur nos émotions du moment. Toujours lié au NLP, les algorithmes de ce domaine «  analyse [ent] diverses caractéristiques de la parole, telles que la hauteur, le ton, le volume et la cadence, pour identifier des émotions comme la colère, la frustration, le bonheur ou le calme. Des algorithmes d’IA avancés traitent ces éléments vocaux pour reconnaître des modèles qui correspondent à des états émotionnels spécifiques. »*




Maintenant qu’on a dit tout ça, peut-on trouver des exemples concrets où l’IA communique avec nous en détectant nos émotions ? Hé bien oui ! On peut d’abord parler des intelligences artificielles utilisées pour la reconnaissance vidéo : « L’IA intégrée dans les caméras/webcams permet de détecter les émotions des étudiants pendant le cours. D’après une étude scientifique polonaise**, le tracking présent dans les caméras analyse les émotions des apprenants via les mouvements des muscles du visage et de la tension de la peau. »* L’idée est d’utiliser ici l’intelligence artificielle pour détecter les émotions des étudiants, les moments ou ces derniers sont plus ou moins concentrés et attirés par le cours pour créer des sessions plus attractives.



Autre domaine qui met cette fois-ci l’écrit à contribution : la thérapie. Vous avez peut-être déjà vu passer sur des sites d’actualité ou sur les réseaux sociaux des articles ou des témoignages de personnes indiquant avoir déjà parlé à une IA comme ChatGPT comme s’il s’agissait de leur psychologue. Les sites Internet qui proposent des chabots incarnant des professionnels de santé sont nombreux. On peut citer Character AI, un site web qui regroupe des centaines de personnages différents, allant des figures de films et d’animés à des agents conversationnels incarnant des professions réelles : psychologue, médecin, politicien…


Pour certaines personnes, ces agents conversationnels spécialisés permettent de faire un premier pas vers une démarche thérapeutique active. S’il faut bien évidemment prendre avec des pincettes tout ce que vous raconte l’IA, force est de constater qu’un grand nombre d’individus se tournent vers ces programmes pour essayer d’aller mieux. Entre proximité, disponibilité et gratuité, l’IA séduit tout particulièrement dans ce domaine. Alors, qu’en est-il réellement ? L’intelligence artificielle a-t-elle réellement des effets positifs sur la santé mentale ? Apparemment, cela pourrait être le cas : « Une étude systématique des chabots de santé mentale a révélé que les chabots d’IA pouvaient réduire considérablement les symptômes de dépression et de détresse, du moins à court terme. »*



Mieux encore, le secteur de la santé s’empare du sujet pour proposer de véritables solutions validées par les professionnels et les institutions : « Au Royaume-Uni, le National Health Service a validé un chatbot pour “améliorer l’accès aux services de santé mentale”. Il est destiné aux personnes ayant des symptômes d’anxiété et des troubles de l’humeur d’intensité légère à sévère. »*



Une femme utilise son smartphone
Les chatbot à vidée thérapeutique sont de plus en plus répandus. Photo de Shantanu Kumar sur Unsplash.

 

Mais l’IA comprend-elle vraiment ce qu’elle analyse ?


Savoir aider les personnes en situation de stress ou comprendre qu’un individu est malheureux s’il ne sourit pas est une chose. Mais l’IA est-elle capable de comprendre ce qu’elle analyse chez l’humain ? Nous pouvons répondre de manière assez sure que non.


En effet, les modèles d’intelligence artificielle sont pour le moment basés sur des méthodes de calcul statistiques. L’IA calcule, fait des probabilités et analyse pour proposer la réponse la plus adaptée et aligner des mots qui font sens les uns à la suite des autres. Alors qu’une IA base son approche des émotions sur des statistiques, l’humain a une approche basée sur une compréhension réelle. Nous analysons les émotions de nos pairs en nous basant sur nos expériences passées. Nous savons quelles sont les activités ou les moments qui nous procurent de la joie, du malheur, de la frustration… nous sommes capables d’inférer des sentiments à des individus en fonction de la situation et du contexte. Tant de subtilités qu’un agent conversationnel ne peut pas encore comprendre.


Quant à ce qui est des sentiments qui ne sont pas corrélés à notre visage, cela illustre très bien le fait que l’IA recoupe ses données et propose des conclusions en établissant des corrélations entre les données. Or, nos sentiments et émotions ne sont pas toujours corrélés à notre visage ou au moment que nous vivons. Quelqu’un peut être triste en plein milieu d’une fête. Nous pouvons sourire alors que nous ne sommes pas heureux. Mais pour une intelligence artificielle, qui associe (de manière très grossière) le fait que sourire = heureux, ce genre de prise en compte du contexte et des subtilités de la communication humaine n’est pas quelque chose de possible.


En clair, l’IA est capable de reconnaître une grande palette d’émotions, et ce, de manière déjà remarquablement précise, mais n’est pas capable d’en comprendre le sens profond ou la signification réelle, et ce, même quand elle ne se trompe pas.


L’intelligence artificielle peut-elle ressentir des émotions ?


Les limites fondamentales de l’IA face aux émotions


L’un des arguments principaux qui est souvent avancé pour dire qu’une IA ne peut pas avoir d’émotion, c’est qu’elle n’a pas de cerveau et tout ce qui va avec : un système nerveux, des connexions chimiques, et une conscience de soi-même. De ce fait, il s’agit (et c’est vrai actuellement) d’un simple programme informatique qui exécute des algorithmes pour détecter des corrélations, des liens, et prédire quelle est la réponse la plus adaptée. L’IA réagit donc à des entrées de données, mais ne ressent rien. Ce problème est renforcé par le fait qu’une intelligence artificielle comme ChatGPT ou Gemini ne peut pas interagir avec le monde. Difficile de ressentir quelque chose quand on a jamais vu de ses propres yeux un océan déchaîné, une mégalopole grouillante de lumières et de vie, des prairies verdoyantes ou des fêtes endiablées.

Avec cette incapacité à ressentir des émotions vient une incapacité à avoir du bon sens.


En effet, les agents conversationnels « peuvent effectuer des calculs complexes et résoudre des problèmes rapidement, mais ils manquent souvent de l’intuition et du contexte que possèdent les humains. Par exemple, l » Intelligence Artificielle pourrait être capable d’identifier des objets dans une image, mais il aurait du mal à comprendre la signification derrière l’image. »* Difficile donc pour une IA de ressentir quelque chose si elle ne comprend pas le sens des émotions humaines et leur portée.



Peut-on concevoir une IA dotée d’émotions à l’avenir ?


Concevoir une IA capable de ressentir des émotions semble tenir de la science-fiction. Et pourtant, c’est quelque chose que la communauté scientifique veut essayer de créer. Pour ce faire, l’IA doit déjà être capable de retenir les éléments qu’on lui transmet. C’est chose faite avec certains modèles comme ChatGPT, qui possède une option que l’internaute peut activer afin de permettre à l’IA de retenir les éléments clés dont il parle avec elle. Ainsi, elle est capable de les prendre en compte pour fournir des réponses plus adaptées et/ou pour éviter à l’internaute de répéter ce qu’il a déjà dit.


En gardant en mémoire ce qu’on a dit à l’IA, celle-ci est capable de mieux comprendre le contexte dans lequel nous lui posons des questions. Elle est ainsi, toujours via des corrélations et des calculs, capable de comprendre que certains contextes sont capables de générer certaines émotions. Par exemple, si l’on dit à ChatGPT qu’on est stressé pour notre premier jour de travail, en lui ayant dit au préalable qu’on avait réussi à avoir un entretien d’embauche, celui-ci comprendra, grâce à sa base de données utilisateur et Internet, que le contexte d’un nouvel emploi génère bien souvent du stress chez l’humain.

Les limites philosophiques et éthiques


Si la question des sentiments est si importante pour nous et pour les robots, c’est parce qu’on ne sait toujours pas quelle est l’origine des émotions, des sentiments et de toute cette palette de ressentis. En effet, « Tout au long de l’histoire des neurosciences, la question de l’origine des émotions n’a cessé d’intriguer les scientifiques. »* Les émotions sont-elles innées ou acquises au cours de notre expérience personnelle et de notre environnement ?



Et si nous ne savons pas comment définir nos émotions nous-mêmes, comment pouvons-nous les définir pour un robot ? La question est doublement intéressante, car si on ne sait pas d’où viennent nos émotions, comment peut-on juger de la présence de ces derniers chez une machine ? Certes, les émotions et sentiments sont très liés à notre activité cérébrale et l’alchimie de notre corps. Mais si elles sont également en grande partie créées par notre interaction avec le monde, ne peut-on pas imaginer des IA dans des corps robotiques capables d’interagir avec le monde extérieur, et, par conséquent, de ressentir quelque chose ? Si une intelligence artificielle prétend avoir des émotions, doit-on la considérer comme un être sensible ?


Personnellement, cette question me fait penser à l’œuvre intitulée « La controverse de Valladolid » dont le résumé partiel est : « Dans un couvent de Valladolid, quelque soixante ans après la découverte du Nouveau Monde, deux hommes s’affrontent dans un débat passionné : les Indiens sont-ils des hommes comme les autres ? »* Ici, toute la question était de savoir si les Indiens étaient des individus à part entière comme les Européens de l’époque, et, notamment, s’ils avaient une âme. Cette controverse, connue et adaptée ensuite en film, m’a marqué par la nature du débat, que je retrouve quelque peu dans celui-ci : les robots ont-ils des sentiments et, à terme, peuvent-ils même devenir des individus à part entière ? Va-t-on se poser les mêmes questions que dans la controverse de Valladolid pour juger du nouveau statut de ces êtres robotiques (s’ils voient le jour) ?



Cette question est donc éminemment philosophique et éthique, et l’IA bouleverse déjà le droit international, notamment en ce qui concerne le droit d’auteur vis-à-vis des créations générées par cette dernière. On peut également se demander quels sont les risques de créer une IA « trop humaine ». Tout d’abord, y en a-t-il un ? Si oui, quel est-il ? Doit-on parler de la transformation profonde que cela pourrait générer dans nos relations sociales et nos codes sociétaux ? Ou peut-être pouvons-nous parler de la place de ces nouvelles IA dans la société ?

Un robot qui sourit
Peut-être qu'un jour, les robots seront capable de ressentir des émotions. Photo de Abik Peravan sur Unsplash.

 

Avantages et applications potentielles


Une IA plus humaine pour une meilleure expérience utilisateur


Un chatbot qui perçoit la frustration d’un client. Une application qui adapte son interface selon l’humeur de l’utilisateur. Une voiture connectée qui détecte la fatigue du conducteur. L’IA émotionnelle promet des interactions plus fluides et plus efficaces.


Dans l’éducation, elle personnalise l’apprentissage en analysant l’engagement des élèves. Dans les jeux vidéo, elle ajuste le scénario en fonction des réactions du joueur. Son objectif ? Rendre la technologie plus intuitive et naturelle.


Un soutien psychologique à portée de main


Les applications comme Woebot ou Wysa proposent un accompagnement en santé mentale. Grâce à l’IA, elles détectent le stress, posent les bonnes questions et suggèrent des exercices pour apaiser l’anxiété.


Bien sûr, elles ne remplacent pas un thérapeute. Mais elles offrent une présence, un premier pas vers une prise en charge plus approfondie. Utile pour ceux qui hésitent à consulter ou qui n’ont pas accès aux soins.


Une aide précieuse pour les personnes isolées


Les robots compagnons comme ElliQ ou PARO sont conçus pour interagir avec les personnes âgées. Ils posent des questions, adaptent leurs réponses et offrent une forme de présence réconfortante.


L’IA émotionnelle joue aussi un rôle clé dans la prévention du suicide. Sur certaines plateformes, elle détecte les signaux de détresse dans les messages et alerte les secours. Un filet de sécurité supplémentaire pour les plus vulnérables.


Risques et dérives possibles


Une arme pour la manipulation émotionnelle


L’IA émotionnelle ne se contente pas d’analyser les sentiments. Elle sait aussi les influencer. Dans la publicité, elle adapte les messages pour provoquer des émotions précises et déclencher des achats.


Dans la politique, elle personnalise les discours pour maximiser l’adhésion. Couplée aux fake news, elle amplifie la désinformation. Une technologie puissante, qui pose la question de son encadrement.


Une frontière floue entre humain et machine


Doit-on humaniser une IA ? Lui donner une voix douce, une personnalité attachante ? Certains experts tirent la sonnette d’alarme. Plus l’illusion est parfaite, plus le risque de confusion augmente.


Une IA qui exprime de la tristesse est-elle en souffrance ? Une machine qui dit « je suis là pour toi » ressent-elle de l’empathie ? Non. Mais l’utilisateur peut se laisser prendre au jeu, au risque d’oublier qu’il parle à un algorithme.


Quand l’IA devient un substitut aux relations humaines


Certains utilisateurs développent un attachement fort aux IA conversationnelles. Des applications comme Replika permettent de créer un « ami virtuel ». Résultat : des milliers de personnes déclarent avoir noué un lien affectif avec leur chatbot.


Cette dépendance émotionnelle inquiète. Elle peut accentuer l’isolement, en réduisant les interactions sociales réelles. L’illusion du lien est là, mais l’échange reste artificiel. Où placer la limite ?

 

L’idée d’une intelligence artificielle capable de ressentir des émotions continue de fasciner autant qu’elle interroge. Entre fantasme de science-fiction et avancées scientifiques réelles, la frontière semble mince, mais demeure bien réelle. Aujourd’hui, l’IA excelle dans l’imitation, mais peut-être qu’un jour, elle dépassera ce simple rôle de miroir pour développer une forme d’expérience propre, une conscience, ou du moins quelque chose qui s’en rapproche.


Si cette perspective soulève des défis éthiques et philosophiques vertigineux, elle ouvre aussi un champ des possibles inexploré : une cohabitation où l’homme et la machine partageraient bien plus qu’un simple échange d’informations. Peut-être que demain, nous ne nous demanderons plus seulement si une IA peut comprendre nos émotions, mais si elle peut, à sa manière, en éprouver.


La bannière musicale des musiques 100 % IA

 

Bình luận


Bình luận về bài đăng này không còn nữa. Hãy liên hệ chủ trang web để biết thêm thông tin.
bottom of page