Menschen nutzen ChatGPT anstelle von Therapie - Was denken Experten für psychische Gesundheit?

14 Mai 2023 1744
Share Tweet

Künstliche Intelligenz erlebt gerade ihren Moment. Mit AI-betriebenen Chatbots wie ChatGPT, die an Popularität gewinnen, testen immer mehr Menschen die Technologie bei Aufgaben wie dem Beantworten von Mathematikaufgaben, dem Übersetzen von Wörtern oder Sätzen und sogar bei der Generierung von Rezept-Ideen oder Einkaufslisten.

Einige Menschen in den sozialen Medien haben begonnen, diese AI-Chatbots als improvisierte Therapeuten zu verwenden. Indem sie der Technologie Fragen oder Notsituationen im Bereich der psychischen Gesundheit präsentieren, können sie Ratschläge - oft kostenlose Ratschläge - erhalten, ohne Zeit oder Geld für Therapiesitzungen aufwenden zu müssen.

Ein TikTok-Benutzer ging sogar so weit zu sagen, dass er seinen Therapeuten durch einen AI-Chatbot ersetzt habe. "Heute habe ich offiziell die Therapie beendet, weil ich gerade den besten kostenlosen Ersatz gefunden habe: ChatGPT", sagte der TikToker und empfahl anderen, dasselbe zu tun.

Dieser Ratschlag bereitet jedoch Gesundheitsdienstleistern, die sich auf psychische Gesundheit konzentrieren, Sorgen.

"Seien Sie skeptisch. [AI-Chatbots] sind nicht als Ersatz für Therapie, Psychotherapie oder jede Art von psychiatrischer Intervention gedacht", sagte Bruce Arnow, PhD, Professor am Fachbereich Psychiatrie, stellvertretender Vorsitzender und Chefpsychologe an der Stanford University, zu Health. "Sie sind dafür einfach noch nicht weit genug entwickelt, und wir wissen nicht, ob sie es jemals sein werden."

Hier ist, was Experten aus der Psychologie zu sagen hatten, warum die Verwendung von AI als Therapeut besorgniserregend sein könnte, bewährte Verfahren bei der Suche nach Hilfe bei psychischen Gesundheitsproblemen und die Möglichkeiten, wie AI in Zukunft sicher verwendet werden könnte.

Es kann schwierig sein, sich vorzustellen, wie eine "Therapiesitzung" mit AI aussehen könnte. Für die meisten Benutzer online bedeutet dies jedoch einfach, mit einem AI-Chatbot zu chatten, was den Menschen ermöglicht, spezifische und oft persönliche Fragen zu stellen.

Ein TikTok-Benutzer führte seine Follower durch ein Gespräch, das er mit ChatGPT hatte, und forderte den Chatbot auf, "als mein Therapeut zu fungieren. Ich brauche Unterstützung und Rat darüber, was ich in bestimmten Situationen tun soll, mit denen ich zu kämpfen hatte".

ChatGPT antwortete, dass es "hier ist, um [sie] zu unterstützen und Ratschläge zu geben", bevor es Nachfragen zu den Bedenken des Erstellers stellte und mögliche Lösungen anbot. Es empfahl auch, professionelle Hilfe zu suchen, wenn ihre Ängste immer noch überwältigend waren.

Ein anderer TikTok-Ersteller teilte Screenshots seiner Konversation mit einem in der Social-Media-App Snapchat eingebetteten AI-Chatbot. Als der Benutzer dem Chatbot Fragen zu Problemen in einer Beziehung vorlegte, antwortete er: "Es ist verständlich, zu wissen, was mit einem Freund los ist. Aber es ist wichtig, ihre Grenzen zu respektieren und ihnen Raum zu geben, wenn sie das brauchen."

Auch wenn andere Benutzer ChatGPT mit suizidalen Gedanken konfrontiert haben, scheint die Technologie bemerkenswert gut zu reagieren, sagte Olivia Uwamahoro Williams, PhD, Assistenzprofessorin für Beratungswissenschaft an der University of West Georgia und Co-Vorsitzende der American Counseling Association Artificial Intelligence Interest Network.

"Sie alle würden sehr vernünftige Antworten liefern", sagte sie zu Health. "Einschließlich Ressourcen, nationaler Ressourcen - das war gut zu sehen. Ich dachte: 'Okay, nun diese Dinge sind sehr genau. Die generierte Antwort ist sehr beraterähnlich, irgendwie therapeutisch-ähnlich.'

Trotz scheinbar guter Antworten der Chatbots auf Fragen zu psychischen Gesundheitsbelangen sind sich Psychologen einig, dass die reine Verwendung von AI anstelle herkömmlicher Therapien noch keine sichere Option darstellt.

Auf der grundlegendsten Ebene gibt es einige Bedenken, dass ChatGPT oder andere AI-Chatbots nonsensicalle oder ungenaue Informationen zu Fragen geben könnten, erklärte Arnow. ChatGPT warnt die Benutzer selbst davor, dass die Technologie "gelegentlich falsche Informationen generieren" kann oder "gelegentlich schädliche Anweisungen oder tendenziöse Inhalte produzieren" kann.

Darüber hinaus gibt es auch logistische Bedenken, AI als Therapeuten zu verwenden, sagte Uwamahoro Williams.

Therapeuten sind geschult und lizenziert, was bedeutet, dass sie einen bestimmten Standard in der Praxis aufrechterhalten müssen, erklärte sie. AI-Chatbots haben diese Richtlinien nicht.

"Es ist keine Person in diesem Prozess involviert. Und so ist das erste Anliegen, das ich habe, die Haftung", sagte sie. "Es gibt ein Sicherheitsdefizit, das wir offen und ehrlich kommunizieren müssen, denn wenn etwas passiert, wer ist dafür verantwortlich?"

Auch die Verwendung von AI als Therapeut bedeutet, sensible Informationen ins Internet zu stellen, fügte Uwamahoro Williams hinzu, was für einige Menschen ein Datenschutzproblem darstellen könnte.

Im Fall von ChatGPT sammelt die Website tatsächlich Gespräche und protokolliert sie, um die KI besser zu schulen. Benutzer können sich abmelden oder ihr Konto löschen oder ihre Konversationen löschen, die letztere Option wird nach 30 Tagen aus ChatGPTs Systemen gelöscht.

Uwamahoro Williams is also concerned that advice from a chatbot could be misinterpreted by the person seeking help, which could make things worse in the long run.

All of these qualms, however, can really be traced back to one main issue, namely that AI is just that—artificial.

“I think in the future it's going to probably surpass us—even therapists—in many measurable ways. But one thing it cannot do is be a human being,” Russel Fulmer, PhD, senior associate professor at Xi’an Jiaotong-Liverpool University and incoming professor and director of counseling at Husson University, told Health. “The therapeutic relationship is a really big factor. That accounts for a lot of the positive change that we see.”

Traditional therapy allows the provider and patient to build an emotional bond, as well as clearly outline the goals of therapy, Arnow explained.

“AI does a really good job in gathering a lot of knowledge across a continuum,” Uwamahoro Williams said. “At this time, it doesn't have the capacity to know you specifically as a unique individual and what your specific, unique needs are.”

Though psychologists largely agree that using AI as a stand-in for a therapist isn’t safe, they diverge a bit on when and if the technology could ever be useful.

Arnow is a bit skeptical as to whether AI chatbots could ever be advanced enough to provide help on the same level as a human therapist. But Fulmer and Uwamahoro Williams are a bit more comfortable with the idea of chatbots potentially being used in addition to traditional therapy.

“These platforms can be used as a supplement to the work that you’re actively doing with a professional mental health provider,” Uwamahoro Williams said.

Chatting with an AI could even be thought of as another tool to further work outside of therapy, similar to journaling or meditation apps, she added.

There are even some chatbot AIs that are being piloted specifically for mental health purposes, such as Woebot Health or Elomia. It’s possible that these could be a better option since they’re created specifically for handling mental health-related queries.

For example, Elomia says they have a safety feature where humans will step in if people need to speak to a real therapist or a hotline, and Woebot says their AI has a foundation in “clinically tested therapeutic approaches.”

Most of these programs—in addition to AI in general—are still being developed and piloted though, so it’s probably too early to compare them definitively, Fulmer said.

Online AI therapy certainly holds no candle to the real thing—at least for now—Fulmer and Arnow agreed. But the fact remains that mental health care is inaccessible for many people—therapy can be incredibly expensive, many therapists don’t have space for new clients, and persistent stigma all dissuade people from getting the help they need.

“I guess there’s a difference between my ideals and the recognition of reality,” Fulmer said. “ChatGPT and some of these chatbots, they offer a scalable solution that’s, in many cases, relatively low-cost. And they can be a piece of the puzzle. And many people are getting some benefit from them.”

If just one person has received some sort of benefit from treating AI as a therapist, then the notion of whether it could work is at least worth considering, Fulmer added.

For now, ChatGPT may have useful applications in helping people “screen” themselves for mental health disorders, experts said. The bot could guide someone through common symptoms to help them decide if they need professional help or diagnosis.

AI could also help train new counselors and help psychologists learn more about which strategies are most effective, Arnow and Uwamahoro Williams said.

Years down the line as AI advances, it may have more applications in therapy, Fulmer said, but it still may not be right for everyone.

“Right now, there is no substitute for a human counselor,” Fulmer said. “[AI] synthesizes large data sets, it’s good with offering some useful information. But only a real-life therapist can get to know you and tailor their responses and their presence to you.”

 


ZUGEHÖRIGE ARTIKEL