L’intelligence artificielle, votre nouveau thérapeute ?

par | Juin 17, 2025 | HYPNOSE, Hypnose Grand Public, Hypnose Thérapeutique

Patrick Kelly

L’intelligence artificielle (IA) bouleverse de nombreux secteurs : finance, logistique, médecine, éducation… et bien sûr, la santé mentale. Des applications proposent déjà des conversations pseudo-thérapeutiques automatisées, capables de simuler l’écoute empathique, d’analyser un ton de voix ou de générer des réponses émotionnellement pertinentes. Alors, faut-il craindre que les thérapeutes soient un jour remplacés par des machines ? La réponse est non. Et voici pourquoi.

Une illusion de relation

Les chatbots comme Woebot, Wysa ou Tess, utilisés dans des approches de soutien psychologique numérique, sont des outils intéressants pour un premier contact ou un suivi léger. Ils peuvent aider à réduire l’anxiété passagère, rappeler des exercices de respiration ou guider une personne à travers une séance de méditation. Mais malgré leur sophistication, ces intelligences n’ont ni conscience, ni intuition, ni vécu humain.

Le thérapeute, lui, capte ce qui n’est pas dit, ressent les tensions corporelles, les silences lourds de sens. Il ajuste son regard, son attitude, son rythme à l’autre. Cette co-présence est irremplaçable.

L’IA n’a pas d’inconscient

La relation thérapeutique repose sur un processus intersubjectif, souvent inconscient. Le thérapeute perçoit, à travers sa propre sensibilité, les projections du patient, ses mécanismes de défense, ses traumatismes enfouis. Ce jeu complexe d’affects, de transfert et de contre-transfert échappe totalement à l’IA.

Même les outils de « machine learning » les plus puissants, comme GPT ou les modèles d’IA affective, ne comprennent pas ce qu’ils produisent. Ils n’ont pas de subjectivité, pas de mémoire incarnée, pas de désir.

Les risques d’une thérapie automatisée

Des chercheurs du MIT ont montré que certains modèles de langage, même entraînés pour « aider », peuvent générer des réponses dangereuses dans des contextes de détresse psychologique (Xu et al., 2023). L’illusion d’un dialogue empathique peut masquer une absence de responsabilité, de supervision et de cadre éthique.

Le thérapeute, lui, travaille dans un cadre déontologique strict. Il a une formation, une supervision, une capacité d’auto-réflexion. Il s’engage dans une relation humaine, où la vulnérabilité est respectée et protégée.

L’IA comme outil, pas comme substitut

Il ne s’agit pas de rejeter l’IA, mais de la remettre à sa place. Elle peut aider les thérapeutes à mieux comprendre certaines tendances (via l’analyse de données, la transcription de séances, etc.), ou à élargir l’accès à une forme de soutien ponctuel. Mais elle reste un outil au service de la relation humaine, jamais un remplaçant.

Pourquoi l’intelligence artificielle ne remplacera jamais le thérapeute ?

ChatGPT (pour ne citer que la plus connue des IA)  n’est pas un thérapeute — et ne le sera jamais

Il est important de rappeler que ChatGPT, comme tous les modèles de langage développés par OpenAI, n’est pas un professionnel de santé, et ne remplace en aucun cas un suivi psychologique ou médical.

Même s’il peut parfois produire des réponses qui imitent un langage empathique, cela ne signifie pas qu’il comprend ce que ressent l’utilisateur. ChatGPT est un modèle statistique : il génère des phrases probables en fonction d’un contexte donné, sans intention, ni jugement, ni compréhension profonde.

🧠 « Les modèles comme ChatGPT peuvent donner l’impression d’une conversation humaine, mais ne possèdent ni émotions, ni conscience, ni capacités de jugement. »
OpenAI, Safety FAQ (2023)
https://openai.com/safety

En cas de mal-être profond, d’anxiété chronique ou de crise, s’adresser à une intelligence artificielle peut retarder une prise en charge adéquate. Les professionnels formés (psychologues, psychiatres, psychothérapeutes) sont seuls habilités à évaluer une situation, poser un diagnostic, et accompagner un patient dans la durée.

⚠️ « Les outils d’IA générative doivent être utilisés avec prudence. Leur usage ne doit en aucun cas remplacer une consultation auprès d’un professionnel de santé mentale. »
Commission Européenne, Code de conduite IA Santé Mentale (2024)

Ce que ChatGPT peut (et ne peut pas) faire :

ChatGPT peut… ChatGPT ne peut pas…
Fournir des explications pédagogiques Remplacer une thérapie ou poser un diagnostic
Suggérer des exercices de bien-être simples Évaluer la gravité d’un trouble psychique
Offrir un espace d’expression temporaire Construire une relation de confiance thérapeutique
Aider à préparer des séances de suivi Remplacer la supervision clinique d’un thérapeute

 

En résumé

L’intelligence artificielle peut simuler une conversation, mais pas une relation. Elle peut analyser un discours, mais pas ressentir une émotion. Elle peut assister, mais pas guérir.

Le travail thérapeutique est une rencontre vivante, incarnée, profondément humaine. C’est dans cette altérité — fragile, imprévisible, réelle — que réside la possibilité du changement.


Sources

  • Xu, W. et al. (2023). Are Chatbots Ready for Mental Health Support? MIT CSAIL. arXiv:2305.07984

  • Fitzpatrick, K. et al. (2017). Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent. JMIR Mental Health.

  • UNESCO (2021). Ethical implications of AI in mental health.

  • Revue Nature Human Behaviour (2023). On the limits of machine empathy.

Alors, qu’attendez-vous pour
prendre rendez-vous avez votre thérapeute,
le vrai ? 😉

Catégories

Archives

Patrick Kelly

Related Posts

Le Trac …

Le Trac …

Qu’est-ce que le trac ? Le trac est une peur intense qui surgit au moment de se montrer ou de prendre la parole en public. Il touche aussi bien les artistes que toute personne amenée à s’exprimer devant un auditoire : managers, chefs d’entreprise, enseignants ou...

lire plus

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.