L’intelligence artificielle (IA) bouleverse de nombreux secteurs : finance, logistique, médecine, éducation… et bien sûr, la santé mentale. Des applications proposent déjà des conversations pseudo-thérapeutiques automatisées, capables de simuler l’écoute empathique, d’analyser un ton de voix ou de générer des réponses émotionnellement pertinentes. Alors, faut-il craindre que les thérapeutes soient un jour remplacés par des machines ? La réponse est non. Et voici pourquoi.
Une illusion de relation
Les chatbots comme Woebot, Wysa ou Tess, utilisés dans des approches de soutien psychologique numérique, sont des outils intéressants pour un premier contact ou un suivi léger. Ils peuvent aider à réduire l’anxiété passagère, rappeler des exercices de respiration ou guider une personne à travers une séance de méditation. Mais malgré leur sophistication, ces intelligences n’ont ni conscience, ni intuition, ni vécu humain.
Le thérapeute, lui, capte ce qui n’est pas dit, ressent les tensions corporelles, les silences lourds de sens. Il ajuste son regard, son attitude, son rythme à l’autre. Cette co-présence est irremplaçable.
L’IA n’a pas d’inconscient
La relation thérapeutique repose sur un processus intersubjectif, souvent inconscient. Le thérapeute perçoit, à travers sa propre sensibilité, les projections du patient, ses mécanismes de défense, ses traumatismes enfouis. Ce jeu complexe d’affects, de transfert et de contre-transfert échappe totalement à l’IA.
Même les outils de « machine learning » les plus puissants, comme GPT ou les modèles d’IA affective, ne comprennent pas ce qu’ils produisent. Ils n’ont pas de subjectivité, pas de mémoire incarnée, pas de désir.
Les risques d’une thérapie automatisée
Des chercheurs du MIT ont montré que certains modèles de langage, même entraînés pour « aider », peuvent générer des réponses dangereuses dans des contextes de détresse psychologique (Xu et al., 2023). L’illusion d’un dialogue empathique peut masquer une absence de responsabilité, de supervision et de cadre éthique.
Le thérapeute, lui, travaille dans un cadre déontologique strict. Il a une formation, une supervision, une capacité d’auto-réflexion. Il s’engage dans une relation humaine, où la vulnérabilité est respectée et protégée.
L’IA comme outil, pas comme substitut
Il ne s’agit pas de rejeter l’IA, mais de la remettre à sa place. Elle peut aider les thérapeutes à mieux comprendre certaines tendances (via l’analyse de données, la transcription de séances, etc.), ou à élargir l’accès à une forme de soutien ponctuel. Mais elle reste un outil au service de la relation humaine, jamais un remplaçant.
Pourquoi l’intelligence artificielle ne remplacera jamais le thérapeute ?
ChatGPT (pour ne citer que la plus connue des IA) n’est pas un thérapeute — et ne le sera jamais
Il est important de rappeler que ChatGPT, comme tous les modèles de langage développés par OpenAI, n’est pas un professionnel de santé, et ne remplace en aucun cas un suivi psychologique ou médical.
Même s’il peut parfois produire des réponses qui imitent un langage empathique, cela ne signifie pas qu’il comprend ce que ressent l’utilisateur. ChatGPT est un modèle statistique : il génère des phrases probables en fonction d’un contexte donné, sans intention, ni jugement, ni compréhension profonde.
🧠 « Les modèles comme ChatGPT peuvent donner l’impression d’une conversation humaine, mais ne possèdent ni émotions, ni conscience, ni capacités de jugement. »
— OpenAI, Safety FAQ (2023)
https://openai.com/safety
En cas de mal-être profond, d’anxiété chronique ou de crise, s’adresser à une intelligence artificielle peut retarder une prise en charge adéquate. Les professionnels formés (psychologues, psychiatres, psychothérapeutes) sont seuls habilités à évaluer une situation, poser un diagnostic, et accompagner un patient dans la durée.
⚠️ « Les outils d’IA générative doivent être utilisés avec prudence. Leur usage ne doit en aucun cas remplacer une consultation auprès d’un professionnel de santé mentale. »
— Commission Européenne, Code de conduite IA Santé Mentale (2024)
Ce que ChatGPT peut (et ne peut pas) faire :
| ChatGPT peut… | ChatGPT ne peut pas… |
|---|---|
| Fournir des explications pédagogiques | Remplacer une thérapie ou poser un diagnostic |
| Suggérer des exercices de bien-être simples | Évaluer la gravité d’un trouble psychique |
| Offrir un espace d’expression temporaire | Construire une relation de confiance thérapeutique |
| Aider à préparer des séances de suivi | Remplacer la supervision clinique d’un thérapeute |
En résumé
L’intelligence artificielle peut simuler une conversation, mais pas une relation. Elle peut analyser un discours, mais pas ressentir une émotion. Elle peut assister, mais pas guérir.
Le travail thérapeutique est une rencontre vivante, incarnée, profondément humaine. C’est dans cette altérité — fragile, imprévisible, réelle — que réside la possibilité du changement.
Sources
-
Xu, W. et al. (2023). Are Chatbots Ready for Mental Health Support? MIT CSAIL. arXiv:2305.07984
-
Fitzpatrick, K. et al. (2017). Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent. JMIR Mental Health.
-
UNESCO (2021). Ethical implications of AI in mental health.
-
Revue Nature Human Behaviour (2023). On the limits of machine empathy.
Alors, qu’attendez-vous pour
prendre rendez-vous avez votre thérapeute,
le vrai ? 😉




0 commentaires