Les gens utilisent ChatGPT à la place de la thérapie - Qu'en pense les experts en santé mentale ?
L'intelligence artificielle est en train de prendre de l'ampleur. Alors que des chatbots alimentés par l'IA, comme ChatGPT, gagnent en popularité, de plus en plus de personnes ont commencé à tester la technologie sur des tâches comme la résolution de problèmes mathématiques, la traduction de mots ou de phrases, et même la génération d'idées de recettes ou de listes d'épicerie.
Certains utilisateurs des réseaux sociaux ont même commencé à utiliser ces chatbots d'IA comme thérapeutes. En présentant la technologie avec des questions ou des crises de santé mentale, les gens peuvent recevoir des conseils - souvent gratuits - sans avoir à passer du temps ou de l'argent en séances de thérapie.
Un utilisateur de TikTok est même allé jusqu'à dire qu'il avait remplacé son thérapeute par un chatbot d'IA. "Aujourd'hui, j'ai officiellement arrêté la thérapie parce que j'ai trouvé le meilleur remplacement gratuit : utiliser ChatGPT," a déclaré le TikToker, recommandant aux autres de faire de même.
Cependant, cet avis inquiète les fournisseurs de soins de santé qui se concentrent sur la santé mentale.
"Soyez sceptique. Les chatbots d'IA ne sont pas destinés à être utilisés comme substitut à la thérapie, à la psychothérapie ou à toute autre forme d'intervention psychiatrique", a déclaré Bruce Arnow, PhD, professeur au département de psychiatrie, membre du comité et psychologue en chef à l'Université Stanford, dans un entretien accordé à Health. "Ils ne sont tout simplement pas assez avancés pour cela, et nous ne savons pas s'ils le seront un jour."
Voici ce que les psychologues experts ont à dire sur les raisons pour lesquelles l'utilisation de l'IA en tant que thérapeute pourrait être préoccupante, les meilleures pratiques en matière de recherche d'aide pour les problèmes de santé mentale, et les moyens dont l'IA pourrait être utilisée en toute sécurité à l'avenir.
Il peut être difficile d'imaginer à quoi ressemblerait une "séance de thérapie" avec l'IA. Mais pour la plupart des utilisateurs en ligne, cela signifie simplement échanger des messages avec un chatbot d'IA, ce qui permet aux personnes de poser des questions personnelles spécifiques et souvent très personnelles.
Un utilisateur de TikTok a guidé ses followers à travers une conversation qu'il a eue avec ChatGPT, demandant au chatbot de "se comporter comme mon thérapeute. J'ai besoin de soutien et de conseils sur ce que je devrais faire dans certaines situations auxquelles j'ai été confronté."
ChatGPT a répondu qu'il était "là pour les soutenir et leur offrir des conseils", avant de poser des questions de suivi sur les préoccupations du créateur et d'offrir des solutions possibles. Il a également recommandé qu'ils cherchent une aide professionnelle si leurs angoisses leur semblaient toujours accablantes.
Un autre créateur de TikTok a partagé des captures d'écran de sa conversation avec un chatbot d'IA intégré à l'application de médias sociaux Snapchat. Lorsque l'utilisateur a posé des questions sur des problèmes relationnels, le chatbot a répondu : "Il est compréhensible de vouloir savoir ce qui se passe avec un ami. Mais il est important de respecter leurs limites et de leur donner de l'espace s'ils en ont besoin".
D'autres utilisateurs ont présenté ChatGPT à des idées suicidaires. Même dans ces situations, la technologie semble répondre remarquablement bien, a déclaré Olivia Uwamahoro Williams, PhD, professeure adjointe en éducation des conseillers à l'Université de West Georgia, et co-présidente du réseau d'intérêt de l'Association américaine de counseling pour l'intelligence artificielle.
"Ils génèrent tous des réponses très justes", a-t-elle déclaré à Health. "Y compris des ressources, des ressources nationales - donc c'était bien de voir cela. J'ai pensé : "Bon, eh bien, ces choses sont très précises. La réponse générée est très semblable à celle d'un conseiller, un peu comme un thérapeute."
Malgré les bonnes réponses apparentes des chatbots aux questions relatives à la santé mentale, les psychologues conviennent que l'utilisation de l'IA simplement en remplacement de la thérapie traditionnelle n'est pas encore une option sûre.
Au niveau le plus basique, il y a des préoccupations quant au fait que ChatGPT ou d'autres chatbots d'IA donnent des informations insensées ou inexactes aux questions, a expliqué Arnow. ChatGPT lui-même avertit les utilisateurs que la technologie "peut parfois générer des informations incorrectes", ou "peut parfois produire des instructions dangereuses ou un contenu biaisé".
En outre, Uwamahoro Williams a déclaré qu'il y a des préoccupations logistiques quant à l'utilisation d'une IA en tant que thérapeute.
Les thérapeutes sont formés et titulaires d'une licence, ce qui signifie qu'ils doivent maintenir un certain niveau de pratique, a-t-elle expliqué. Les chatbots d'IA n'ont pas ces mêmes directives.
"Il n'y a pas de personne impliquée dans ce processus. Et donc la première préoccupation que j'ai, c'est la responsabilité", a-t-elle déclaré. "Il y a un manque de sécurité que nous devons être ouverts et honnêtes à ce sujet, car si quelque chose arrive, alors qui est tenu pour responsable ?"
De même, utiliser une IA en tant que thérapeute implique de mettre des informations sensibles sur Internet, a ajouté Uwamahoro Williams, ce qui peut poser un problème de confidentialité pour certaines personnes.
Dans le cas de ChatGPT, le site collecte et enregistre les conversations, qu'il utilise pour mieux former l'IA. Les utilisateurs peuvent se désinscrire, ou ils peuvent supprimer leur compte ou effacer leurs conversations, cette dernière étant supprimée des systèmes de ChatGPT après 30 jours.
Uwamahoro Williams is also concerned that advice from a chatbot could be misinterpreted by the person seeking help, which could make things worse in the long run.
All of these qualms, however, can really be traced back to one main issue, namely that AI is just that—artificial.
“I think in the future it's going to probably surpass us—even therapists—in many measurable ways. But one thing it cannot do is be a human being,” Russel Fulmer, PhD, senior associate professor at Xi’an Jiaotong-Liverpool University and incoming professor and director of counseling at Husson University, told Health. “The therapeutic relationship is a really big factor. That accounts for a lot of the positive change that we see.”
Traditional therapy allows the provider and patient to build an emotional bond, as well as clearly outline the goals of therapy, Arnow explained.
“AI does a really good job in gathering a lot of knowledge across a continuum,” Uwamahoro Williams said. “At this time, it doesn't have the capacity to know you specifically as a unique individual and what your specific, unique needs are.”
Though psychologists largely agree that using AI as a stand-in for a therapist isn’t safe, they diverge a bit on when and if the technology could ever be useful.
Arnow is a bit skeptical as to whether AI chatbots could ever be advanced enough to provide help on the same level as a human therapist. But Fulmer and Uwamahoro Williams are a bit more comfortable with the idea of chatbots potentially being used in addition to traditional therapy.
“These platforms can be used as a supplement to the work that you’re actively doing with a professional mental health provider,” Uwamahoro Williams said.
Chatting with an AI could even be thought of as another tool to further work outside of therapy, similar to journaling or meditation apps, she added.
There are even some chatbot AIs that are being piloted specifically for mental health purposes, such as Woebot Health or Elomia. It’s possible that these could be a better option since they’re created specifically for handling mental health-related queries.
For example, Elomia says they have a safety feature where humans will step in if people need to speak to a real therapist or a hotline, and Woebot says their AI has a foundation in “clinically tested therapeutic approaches.”
Most of these programs—in addition to AI in general—are still being developed and piloted though, so it’s probably too early to compare them definitively, Fulmer said.
Online AI therapy certainly holds no candle to the real thing—at least for now—Fulmer and Arnow agreed. But the fact remains that mental health care is inaccessible for many people—therapy can be incredibly expensive, many therapists don’t have space for new clients, and persistent stigma all dissuade people from getting the help they need.
“I guess there’s a difference between my ideals and the recognition of reality,” Fulmer said. “ChatGPT and some of these chatbots, they offer a scalable solution that’s, in many cases, relatively low-cost. And they can be a piece of the puzzle. And many people are getting some benefit from them.”
If just one person has received some sort of benefit from treating AI as a therapist, then the notion of whether it could work is at least worth considering, Fulmer added.
For now, ChatGPT may have useful applications in helping people “screen” themselves for mental health disorders, experts said. The bot could guide someone through common symptoms to help them decide if they need professional help or diagnosis.
AI could also help train new counselors and help psychologists learn more about which strategies are most effective, Arnow and Uwamahoro Williams said.
Years down the line as AI advances, it may have more applications in therapy, Fulmer said, but it still may not be right for everyone.
“Right now, there is no substitute for a human counselor,” Fulmer said. “[AI] synthesizes large data sets, it’s good with offering some useful information. But only a real-life therapist can get to know you and tailor their responses and their presence to you.”