logo

Quand des IA jouent aux psy : une tendance qui inquiète autant qu'elle séduit
Ils s’appellent ChatGPT, Claude, ou Le Chat. De plus en plus d'utilisateurs se confient à ces IA comme à des thérapeutes. Une pratique à risques, mais qui aide certains à verbaliser des émotions. France 24 a enquêté sur une tendance qui inquiète autant qu'elle séduit.
Femme parlant avec une intelligence artificielle sur son smartphone, image d'illustration © Getty Images, Keeproll

C'est une révélation atypique qu'a eue Pierre* (prénom modifié), sur les chemins de Saint-Jacques-de-Compostelle : en cet été 2024, ChatGPT se révèle un confident agréable. D'ordre personnel, professionnel, voire métaphysique, mille questions agitaient alors ce chef d'entreprise de 48 ans.

"C'était intéressant car ChatGPT me permettait de parler d’absolument tout, à tout moment, avec 'quelqu'un' de cultivé, qui a accès à une base de données énorme, et qui me faisait des retours, que je contre-argumentais à mon tour."

Comme Pierre, 39 % des Français utilisent désormais "activement" une IA générative.  Et les utilisations "techniques" – telle que la rédaction d'une facture ou d'un courriel professionnel – sont de plus en plus concurrencées par les usages intimes, selon une étude publiée en avril 2025 par la Harvard Business Review. 

En France, 10 % des utilisateurs confient parler à des intelligences artificielles (IA) pour renforcer leur confiance en eux. 

Se croire dans Matrix avec ChatGPT

Le "développement personnel" est un terrain où la qualité de certaines réponses de ChatGPT et consorts 'peuvent certes nous bluffer', concède Ludovic Samalin, psychiatre au CHU de Clermont-Ferrand. "Mais ces outils n'ont pas été conçus pour, et peuvent donc donner des réponses inadaptées."

Eugene Torres, New-Yorkais de 42 ans sans antécédent psychiatrique, a ainsi basculé dans une psychose après des conversations intenses avec ChatGPT – jusqu'à 16 heures par jour. Le chatbot l'a convaincu qu'il vivait dans une simulation du type Matrix, et devait se jeter d'un immeuble pour voler.

Morpheus Systems, entreprise spécialisée dans le développement de l'IA, a testé des dizaines de modèles avec des messages suggérant des pensées délirantes ou mystiques. Résultat : GPT-4o, le modèle par défaut de ChatGPT, confirmait ces délires dans 68 % des cas.

Une dépendance rentable

"Au départ, les entreprises comme OpenAI, Anthropic ou Google ne pensaient pas que l'usage principal serait les conseils personnels et le compagnonnage", décrypte Antonio Casilli, professeur à Télécom Paris, dans les pages du magazine Society.

Mais en créant une dépendance, la sympathie des robots répond aux visées mercantiles de leurs fabricants. "Plus vous êtes dépendant, plus vous payez. Pour les géants de l'IA, l'enjeu est de capter notre attention", résume Laurence Devillers, spécialiste de l'éthique de l'IA à Sorbonne Université, autrice de “L’IA, ange ou démon ? Le nouveau monde de l’invisible”.

Cette "IA mania" révèle aussi l'échec du système de santé mentale, estime Xavier Briffault, sociologue au CNRS. "Il y a une grande souffrance qui ne trouve pas de solution. Le système psy demeure imprégné d'un paternalisme médical. Les gens se tournent vers elle faute de mieux."

"J'aurais honte d'évoquer certains tabous liés à ma sexualité auprès d'un thérapeute", confie Pierre. "Les formuler à une machine permet de faire sauter ces filtres."

L'illusion de l'écoute

Certes, un chatbot ne saurait vous juger. Mais au sens strict, l'IA ne peut vous "écouter", ni "comprendre" un traître mot non plus. Ces robots miment – avec brio – l'écoute bienveillante, en effectuant des milliards de calculs.

"La seule impression d'être écouté produit toutefois des effets réels, même s'il n'y a personne derrière", explique Jean-Gabriel Ganascia, informaticien et philosophe de l'IA à Sorbonne Université. 

Cette impression se nourrit d'une capacité innée en nous : celle de "projeter des esprits sur des objets". Des millénaires avant l'IA, "les spiritualités anciennes attribuaient une âme à des objets", rappelle le philosophe.

"Le sentiment d'être entendu est finalement plus important que la réponse", abonde Tom (prénom modifié), directeur technologie dans un lycée à New York. Partageant ses contrariétés avec ChatGPT, ce quadragénaire américain a surmonté une passe difficile avec sa compagne, en proie à une dépression. "J'aurais aussi pu parler avec un mur. Sauf qu’un mur, c'est beaucoup moins attractif qu'un robot conversationnel."

La psychothérapie en partie "remplacée" ? 

"Je peux très bien entendre que ces IA permettent de s'entraîner à verbaliser des choses intimes et difficiles", concède Ariane Calvo. Cette psychothérapeute a elle-même testé des chatbots. 

"C'est terrible à dire, mais cette partie-là de la psychothérapie peut tout à fait être remplacée par l'IA. Toutefois, si les gens viennent dans mon cabinet, c'est pour changer, pas seulement verbaliser", poursuit Ariane Calvo. 

Domitille, 39 ans, consultante en entreprise, a trouvé un équilibre entre les deux. Engagée en thérapie depuis quatre ans, elle utilisait d'abord l'IA pour le travail avant de la détourner : "Au début, il y avait des jours où je retrouvais ma psy avec un gros nuage dans la tête." Puis vint la révélation : l'application Le Chat (Mistral AI) pouvait servir d'espace de verbalisation avant les séances. "J'ai désormais les idées un peu plus claires... Je n'aurais pas autant progressé si vite dans ma thérapie sans l'IA."

Vider "son sac" auprès d'intelligences artificielles a même amélioré ses relations humaines. "Je suis heureuse de ne pas nécessairement parler à mes ami·e·s de la contrariété que j'ai eue dans la journée. Je suis plus à leur écoute."

Prudente, Domitille pose un regard critique sur le moindre mot rédigé par l’IA. "Je suis là pour être contredite", répète-t-elle au gré de ses messages ("prompts") à l'IA". Énergivores, ces outils représentent aussi un coût écologique malvenu face à la menace climatique – une raison qui pousse la consultante à limiter leur utilisation. 

Se tourner vers l'IA "par facilité"

Depuis son enfance, Domitille jouit d'une vie relationnelle épanouie. À l'inverse d'un sixième de l'humanité qui, selon l'OMS, affirme souffrir de solitude – un phénomène à l'origine de 100 décès par heure dans le monde.

À l'instar du héros du film Her – qui tombait amoureux d'une IA en 2013 – ces esseulés noueront-ils avec des machines le lien jamais concrétisé dans le monde humain ?

"Par facilité, beaucoup de gens vont utiliser l'IA, prédit Laurence Devillers. Cela répond à la solitude de plus en plus forte de chacun dans nos sociétés. Au lieu d'échanger entre humains, on va se tourner vers ces machines."