Las personas están utilizando ChatGPT en lugar de terapia. ¿Qué piensan los expertos en salud mental?
La inteligencia artificial está teniendo un momento importante. Con chatbots impulsados por IA como ChatGPT ganando popularidad, más personas han optado por probar la tecnología en tareas como responder preguntas de matemáticas, traducir palabras o frases, e incluso generar ideas de recetas o listas de compras.
Algunas personas en las redes sociales también han comenzado a utilizar estos chatbots de IA como terapeutas improvisados. Al presentar preguntas o crisis de salud mental a la tecnología, las personas pueden recibir consejos, a menudo de manera gratuita, sin tener que dedicar tiempo o dinero a sesiones de terapia.
Un usuario de TikTok incluso llegó a decir que sustituyó a su terapeuta por un chatbot de IA. "Hoy renuncio oficialmente a la terapia porque acabo de encontrar el mejor reemplazo gratuito: usar ChatGPT", dijo el usuario de TikTok, recomendando a otros que hagan lo mismo.
Sin embargo, este consejo preocupa a los proveedores de atención médica que se centran en la salud mental.
"Sé escéptico. [Los chatbots de IA] no están destinados a ser utilizados como sustituto de la terapia, la psicoterapia o cualquier tipo de intervención psiquiátrica", dijo Bruce Arnow, PhD, profesor del departamento de psiquiatría, presidente asociado y psicólogo jefe de Stanford University, a Health. "Simplemente no están lo suficientemente avanzados para eso y no sabemos si lo estarán".
Esto es lo que los psicólogos expertos tienen que decir sobre por qué el uso de la IA como terapeuta podría ser un problema, las mejores prácticas cuando se trata de buscar ayuda para problemas de salud mental y las formas en que la IA podría usarse de manera segura en el futuro.
Puede resultar desafiante imaginar cómo sería una "sesión de terapia" con IA. Pero para la mayoría de los usuarios en línea, simplemente significa enviar mensajes a un chatbot de IA, lo que permite a las personas hacer preguntas específicas y, a menudo, personales.
Un usuario de TikTok llevó a sus seguidores a través de una conversación que tuvo con ChatGPT, instruyendo al chatbot a "actuar como mi terapeuta. Necesito apoyo y consejo sobre lo que debo hacer en ciertas situaciones con las que he estado lidiando".
ChatGPT respondió que estaba "aquí para apoyarlos y ofrecer consejos", antes de hacer preguntas de seguimiento sobre las preocupaciones del creador y ofrecer posibles soluciones. También recomendó que buscaran ayuda profesional si sus ansiedades todavía se sentían abrumadoras.
Otro creador de TikTok compartió capturas de pantalla de su conversación con un chatbot de IA integrado en la aplicación de redes sociales Snapchat. Cuando el usuario presentó al chatbot preguntas sobre problemas en una relación, respondió: "Es comprensible querer saber qué está sucediendo con un amigo. Pero es importante respetar sus límites y darles espacio si eso es lo que necesitan".
Otros usuarios han presentado a ChatGPT ideas suicidas. Incluso en estas situaciones, la tecnología parece responder de manera notablemente buena, dijo Olivia Uwamahoro Williams, PhD, profesora asistente de educación de consejeros en la Universidad de West Georgia y co-presidenta de la American Counseling Association Artificial Intelligence Interest Network.
"Todos generarían respuestas sólidas", dijo a Health. "Incluyendo recursos, recursos nacionales, así que fue bueno ver eso. Pensé: 'Okay, bueno, estas cosas son muy precisas. La respuesta generada es muy parecida a la de un consejero, como la de un terapeuta'".
A pesar de que los chatbots parecen responder bien a las preguntas sobre problemas de salud mental, los psicólogos están de acuerdo en que simplemente usar la IA en lugar de la terapia tradicional aún no es una opción segura.
En el nivel más básico, hay algunas preocupaciones sobre ChatGPT u otros chatbots de IA que pueden dar información sin sentido o inexacta a las preguntas, explicó Arnow. ChatGPT en sí mismo advierte a los usuarios que la tecnología "puede generar información incorrecta de manera ocasional" o "puede producir instrucciones dañinas o contenido sesgado de manera ocasional".
Más allá de esto, Uwamahoro Williams dijo que también hay algunas preocupaciones logísticas al intentar utilizar la IA como terapeuta.
Los terapeutas están capacitados y tienen licencia, lo que significa que deben mantener cierto estándar de práctica, explicó. Los chatbots de IA no tienen estas mismas pautas.
"No hay una persona involucrada en este proceso. Y así, la primera preocupación que tengo es la responsabilidad", dijo. "Hay una falta de seguridad de la que tenemos que ser abiertos y honestos, porque si sucede algo, ¿quién es considerado responsable?"
De forma similar, utilizar la IA como terapeuta implica poner información sensible en Internet, agregó Uwamahoro Williams, lo que podría ser un problema de privacidad para algunas personas.
En el caso de ChatGPT, el sitio recopila y registra conversaciones, lo que dice que utiliza para entrenar mejor la IA. Los usuarios pueden optar por no hacerlo, o pueden eliminar su cuenta o borrar sus conversaciones, siendo estas últimas eliminadas de los sistemas de ChatGPT después de 30 días.
Uwamahoro Williams is also concerned that advice from a chatbot could be misinterpreted by the person seeking help, which could make things worse in the long run.
All of these qualms, however, can really be traced back to one main issue, namely that AI is just that—artificial.
“I think in the future it's going to probably surpass us—even therapists—in many measurable ways. But one thing it cannot do is be a human being,” Russel Fulmer, PhD, senior associate professor at Xi’an Jiaotong-Liverpool University and incoming professor and director of counseling at Husson University, told Health. “The therapeutic relationship is a really big factor. That accounts for a lot of the positive change that we see.”
Traditional therapy allows the provider and patient to build an emotional bond, as well as clearly outline the goals of therapy, Arnow explained.
“AI does a really good job in gathering a lot of knowledge across a continuum,” Uwamahoro Williams said. “At this time, it doesn't have the capacity to know you specifically as a unique individual and what your specific, unique needs are.”
Though psychologists largely agree that using AI as a stand-in for a therapist isn’t safe, they diverge a bit on when and if the technology could ever be useful.
Arnow is a bit skeptical as to whether AI chatbots could ever be advanced enough to provide help on the same level as a human therapist. But Fulmer and Uwamahoro Williams are a bit more comfortable with the idea of chatbots potentially being used in addition to traditional therapy.
“These platforms can be used as a supplement to the work that you’re actively doing with a professional mental health provider,” Uwamahoro Williams said.
Chatting with an AI could even be thought of as another tool to further work outside of therapy, similar to journaling or meditation apps, she added.
There are even some chatbot AIs that are being piloted specifically for mental health purposes, such as Woebot Health or Elomia. It’s possible that these could be a better option since they’re created specifically for handling mental health-related queries.
For example, Elomia says they have a safety feature where humans will step in if people need to speak to a real therapist or a hotline, and Woebot says their AI has a foundation in “clinically tested therapeutic approaches.”
Most of these programs—in addition to AI in general—are still being developed and piloted though, so it’s probably too early to compare them definitively, Fulmer said.
Online AI therapy certainly holds no candle to the real thing—at least for now—Fulmer and Arnow agreed. But the fact remains that mental health care is inaccessible for many people—therapy can be incredibly expensive, many therapists don’t have space for new clients, and persistent stigma all dissuade people from getting the help they need.
“I guess there’s a difference between my ideals and the recognition of reality,” Fulmer said. “ChatGPT and some of these chatbots, they offer a scalable solution that’s, in many cases, relatively low-cost. And they can be a piece of the puzzle. And many people are getting some benefit from them.”
If just one person has received some sort of benefit from treating AI as a therapist, then the notion of whether it could work is at least worth considering, Fulmer added.
For now, ChatGPT may have useful applications in helping people “screen” themselves for mental health disorders, experts said. The bot could guide someone through common symptoms to help them decide if they need professional help or diagnosis.
AI could also help train new counselors and help psychologists learn more about which strategies are most effective, Arnow and Uwamahoro Williams said.
Years down the line as AI advances, it may have more applications in therapy, Fulmer said, but it still may not be right for everyone.
“Right now, there is no substitute for a human counselor,” Fulmer said. “[AI] synthesizes large data sets, it’s good with offering some useful information. But only a real-life therapist can get to know you and tailor their responses and their presence to you.”