Depuis quelques années, l’intelligence artificielle (IA) s’invite dans le champ de la santé mentale. Des applications de soutien psychologique, comme Woebot, Wysa ou Replika, se présentent comme des compagnons d’écoute accessibles à tout moment, capables d’échanger avec l’utilisateur de manière empathique et structurée.

Suite au suicide en avril 2025 d’un adolescent (qui conversait avec une IA) aux USA , le débat sur l’éthique, et la responsabilité des sociétés qui développent ces outils, a été relancé : peut-on réellement confier à une machine le rôle de psychothérapeute ?

La question touche à la fois à la nature même de la relation thérapeutique – écoute, la présence et la compréhension mutuelle – et à la promesse technologique d’un accompagnement plus accessible…

Les promesses de l’IA thérapeutique

L’un des principaux avantages de l’IA réside dans sa disponibilité permanente :

consultable à toute heure du jour ou de la nuit, offrant une réponse immédiate aux moments de détresse ou de solitude. L’IA présente aussi un avantage économique. L’IA offre un espace gratuit d’échange. Elle peut être vue comme palliatif à un manque de professionnels de santé, ou encore un premier pas pour des personnes qui hésitent encore à consulter :

                      ————————————————————————————-

Une application comme Wysa intègre un système hybride : un chatbot pour le dialogue de premier niveau et, en option, un suivi par un professionnel humain. Cette combinaison facilite l’accès au soutien psychologique.

 L’IA est déjà utilisée en psychiatrie : pour accompagner des thérapies avec des exercices sur mesure (par ex. sur l’anxiété), combler le « vide » entre 2 séances, aider au diagnostic (pour le thérapeute), elle peut encore aider aux tâches cognitives d’apprentissage, de résolution de problèmes.

                      ————————————————————————————-

De plus, l’IA peut contribuer à démocratiser l’accès à la psychothérapie, notamment pour les jeunes générations familiarisées avec le numérique. Elle peut aussi réduire la crainte préalable à la rencontre d’un professionnel, le sentiment de honte aussi pouvant être ressenti en face à face, en proposant une première approche “anonyme” et dédramatisée. 

Enfin, l’IA présente un avantage logistique : pas de déplacement, de prise de rendez-vous, ni d’attente. Dans une société où la santé mentale devient un enjeu collectif majeur, ces outils peuvent jouer un rôle de prévention ou de premier contact.

Les limites et risques d’un substitut non humain

Les limites de l'IA en psychothérapie

Les limites sont déjà éthiques et sécuritaires. Une IA ne garantit pas la confidentialité des échanges de la même manière qu’un professionnel garant de cette confidentialité. Les données personnelles, stockées sur des serveurs, peuvent faire l’objet d’une utilisation par des tiers, commerciale ou autre.

D’un point de vue écologique, on sait que l’IA est grande consommatrice d’énergie.

                                         L’auto-diagnostic a aussi ses limites, particulièrement par le biais de complaisance décrit ci-après. On a pu voir aux urgences psychiatriques une personne persuadée d’avoir un objet en métal dans son ventre, diagnostic confirmé par l’IA qui remettait en cause, avec cette personne, la fiabilité d’une radiologie.

Les biais de l'IA en psychothérapie

Surtout l’IA reste limitée par les biais de ses concepteurs. Le principal biais est lié au principe même de conception de l’outil « toujours aller dans le sens de la personne, l’aider à atteindre ses objectifs ». Nommé aussi « biais de complaisance », cela signifie que l’IA est programmée pour nous valider. Ce biais crée un renforcement positif dans la relation personne-IA (on préfère être confirmé, particulièrement quand on rencontre des problèmes).

De plus, comme la plupart des outils internet (réseaux et autres), le modèle priorise l’engagement (voir comment on nous demande immédiatement des avis sur la plupart des sites), et l’engagement crée une dépendance (qui aujourd’hui s’en remet à son intuition pour choisir un hôtel par exemple ?).

Les risques : la dérive de l’attachement émotionnel

Certaines expériences, notamment avec Replika, ont montré les dérives possibles de l’attachement émotionnel à une intelligence artificielle. Des utilisateurs en détresse affective ont développé des liens quasi amoureux avec leur application, brouillant la frontière entre soutien et dépendance.

Sam Altman déclare en août 2025 que GPT5 « sera encore plus chaleureux et amical ». On peut dès lors penser que les IA ont un but d’être pris pour des êtres humains. On peut donner à « son » IA un prénom, une image aussi, un avatar. Certains parlent même d’IA « Intelligence Affective ». Ce but est toujours dans l’intention’ louable’ de répondre aux demandes des personnes.

Le risque réside à ce niveau-là : quand une personne en détresse prend une machine pour son meilleur ami. C’est une déviation de l’usage d’un outil. Le risque est de voir en l’IA une intelligence affective.

Intelligence émotionnelle en psychothérapie

En conclusion, je souhaite souligner comment je vois la thérapie, et comment un outil, même aussi performant que l’IA ne peut s’y substituer. Ma pratique en Gestalt-thérapie est fondée sur la rencontre entre deux subjectivités.

Elle implique la perception, la résonance émotionnelle, le silence, l’intuition – autant de dimensions qu’aucun algorithme ne peut reproduire. Une machine peut simuler l’empathie, mais elle ne ressent pas. Elle ne perçoit ni le ton de la voix, ni la micro-expression du visage, ni les non-dits ou presque-dits qui tissent la trame d’un accompagnement en profondeur.

Comme le souligne la psychologue Sherry Turkle dans Reclaiming Conversation (2015), “parler à une machine, c’est se priver de la vulnérabilité et de l’imprévisibilité qui font la richesse du dialogue humain”. Cette vulnérabilité, fondement de l’humain, est partagée entre le patient et le thérapeute qui offre aussi son humanité dans le lien. 

L’IA, dans sa froide logique, peut servir de miroir : elle renvoie les mots, aide à structurer les pensées, propose des pistes de réflexion. Mais seule la relation vivante avec un thérapeute permet d’explorer les zones d’ombre, les contradictions…