Le persone stanno usando ChatGPT al posto della terapia - Cosa pensano gli esperti di salute mentale?

14 Maggio 2023 1702
Share Tweet

L'intelligenza artificiale sta vivendo un momento di grande popolarità. Grazie a chatbot come ChatGPT basati su AI, sempre più persone hanno iniziato a testare la tecnologia per risolvere compiti come rispondere a domande di matematica, tradurre parole o frasi e persino per generare idee di ricette o liste della spesa.

Alcune persone sui social media hanno iniziato a utilizzare questi chatbot AI come terapeuti provvisori. Presentando alla tecnologia domande o crisi legate alla salute mentale, le persone possono ricevere consigli, spesso gratis, senza dover spendere tempo o denaro in sedute di terapia.

Un utente di TikTok è addirittura arrivato a sostituire il suo terapeuta con un chatbot AI. "Oggi ho ufficialmente lasciato la terapia perché ho trovato il miglior sostituto gratuito: ho usato ChatGPT", ha detto suggerendo agli altri di fare lo stesso.

Tuttavia, questo consiglio preoccupa gli operatori sanitari che si occupano di salute mentale.

"Siate scettici. [I chatbot AI] non sono destinati a essere usati come sostituti della terapia, della psicoterapia o di qualsiasi tipo di intervento psichiatrico", ha detto Bruce Arnow, PhD, professore nel dipartimento di psichiatria, vicepresidente e psicologo capo presso la Stanford University, a Health. "Non sono ancora abbastanza avanzati per questo, e non sappiamo se lo saranno mai".

Ecco cosa hanno da dire gli psicologi esperti sul motivo per cui l'utilizzo dell'IA come terapeuta potrebbe essere un problema, le migliori pratiche quando si tratta di cercare aiuto per questioni di salute mentale e i modi in cui l'IA potrebbe essere utilizzata in modo sicuro in futuro.

Può essere difficile immaginare come potrebbe essere una "seduta di terapia" con l'IA. Ma per la maggior parte degli utenti online, significa semplicemente messaggiare con un chatbot AI, che consente alle persone di fare domande specifiche e spesso personali.

Un utente di TikTok ha guidato i suoi followers attraverso una conversazione che ha avuto con ChatGPT, istruendo il chatbot a "agire come il mio terapeuta. Ho bisogno di supporto e consigli su cosa fare in alcune situazioni con cui ho difficoltà".

ChatGPT ha risposto che era "qui per supportarlo e offrire consigli", prima di chiedere ulteriori informazioni sulle preoccupazioni del creatore della domanda e offrendo possibili soluzioni. Ha anche consigliato di cercare aiuto professionale se l'ansia continuava a sentirsi opprimente.

Un altro creatore di TikTok ha condiviso screenshot della sua conversazione con un chatbot AI integrato nell'app di social media Snapchat. Quando l'utente ha posto al chatbot domande su problemi in una relazione, ha risposto: "È comprensibile voler sapere cosa succede con un amico. Ma è importante rispettare i loro confini e dare loro spazio se è quello di cui hanno bisogno."

Altri utenti hanno presentato a ChatGPT pensieri suicidi. Anche in queste situazioni, la tecnologia sembra rispondere in modo notevole, ha detto Olivia Uwamahoro Williams, PhD, professore assistente di educazione per consulenti alla University of West Georgia e co-presidente della American Counseling Association Artificial Intelligence Interest Network.

"Tutti generavano risposte molto appropriate", ha detto a Health. "Inclusi i riferimenti alle risorse nazionali. Quindi è stato bello vedere. Ho pensato: 'Ok, queste cose sono molto accurate. La risposta generata è molto simile a quella di un consulente, un po' come un terapeuta'".

Nonostante le buone risposte dei chatbot alle domande relative ai problemi di salute mentale, gli psicologi concordano sul fatto che utilizzare semplicemente l'IA al posto della terapia tradizionale non è ancora un'opzione sicura.

A livello più elementare, ci sono alcune preoccupazioni riguardo al fatto che ChatGPT o altri chatbot AI possano dare informazioni non sensate o inaccurate alle domande, ha spiegato Arnow. ChatGPT stesso avverte gli utenti che la tecnologia "potrebbe occasionalmente generare informazioni incorrect", o "potrebbe occasionalmente produrre istruzioni dannose o contenuti tendenziosi".

Oltre a ciò, Uwamahoro Williams ha detto che ci sono alcune preoccupazioni logistiche nel cercare di usare l'IA come terapeuta.

I terapeuti sono formati e autorizzati, il che significa che devono mantenere un determinato standard di pratica, ha spiegato. I chatbot AI non hanno queste stesse linee guida.

"Non c'è una persona coinvolta in questo processo. E quindi la prima preoccupazione che ho riguarda la responsabilità", ha detto. "C'è una mancanza di sicurezza di cui dobbiamo essere aperti e onesti, perché se succede qualcosa, chi è responsabile?"

Allo stesso modo, utilizzare l'IA come terapeuta implica mettere informazioni sensibili su Internet, ha aggiunto Uwamahoro Williams, il che potrebbe essere un problema di privacy per alcune persone.

Nel caso di ChatGPT, il sito raccoglie e registra le conversazioni, che dice di utilizzare per migliorare la tecnologia. Gli utenti possono optare per l'uscita o eliminare il proprio account o cancellare le proprie conversazioni, queste ultime vengono eliminate dai sistemi di ChatGPT dopo 30 giorni.

Uwamahoro Williams is also concerned that advice from a chatbot could be misinterpreted by the person seeking help, which could make things worse in the long run.

All of these qualms, however, can really be traced back to one main issue, namely that AI is just that—artificial.

“I think in the future it's going to probably surpass us—even therapists—in many measurable ways. But one thing it cannot do is be a human being,” Russel Fulmer, PhD, senior associate professor at Xi’an Jiaotong-Liverpool University and incoming professor and director of counseling at Husson University, told Health. “The therapeutic relationship is a really big factor. That accounts for a lot of the positive change that we see.”

Traditional therapy allows the provider and patient to build an emotional bond, as well as clearly outline the goals of therapy, Arnow explained.

“AI does a really good job in gathering a lot of knowledge across a continuum,” Uwamahoro Williams said. “At this time, it doesn't have the capacity to know you specifically as a unique individual and what your specific, unique needs are.”

Though psychologists largely agree that using AI as a stand-in for a therapist isn’t safe, they diverge a bit on when and if the technology could ever be useful.

Arnow is a bit skeptical as to whether AI chatbots could ever be advanced enough to provide help on the same level as a human therapist. But Fulmer and Uwamahoro Williams are a bit more comfortable with the idea of chatbots potentially being used in addition to traditional therapy.

“These platforms can be used as a supplement to the work that you’re actively doing with a professional mental health provider,” Uwamahoro Williams said.

Chatting with an AI could even be thought of as another tool to further work outside of therapy, similar to journaling or meditation apps, she added.

There are even some chatbot AIs that are being piloted specifically for mental health purposes, such as Woebot Health or Elomia. It’s possible that these could be a better option since they’re created specifically for handling mental health-related queries.

For example, Elomia says they have a safety feature where humans will step in if people need to speak to a real therapist or a hotline, and Woebot says their AI has a foundation in “clinically tested therapeutic approaches.”

Most of these programs—in addition to AI in general—are still being developed and piloted though, so it’s probably too early to compare them definitively, Fulmer said.

Online AI therapy certainly holds no candle to the real thing—at least for now—Fulmer and Arnow agreed. But the fact remains that mental health care is inaccessible for many people—therapy can be incredibly expensive, many therapists don’t have space for new clients, and persistent stigma all dissuade people from getting the help they need.

“I guess there’s a difference between my ideals and the recognition of reality,” Fulmer said. “ChatGPT and some of these chatbots, they offer a scalable solution that’s, in many cases, relatively low-cost. And they can be a piece of the puzzle. And many people are getting some benefit from them.”

If just one person has received some sort of benefit from treating AI as a therapist, then the notion of whether it could work is at least worth considering, Fulmer added.

For now, ChatGPT may have useful applications in helping people “screen” themselves for mental health disorders, experts said. The bot could guide someone through common symptoms to help them decide if they need professional help or diagnosis.

AI could also help train new counselors and help psychologists learn more about which strategies are most effective, Arnow and Uwamahoro Williams said.

Years down the line as AI advances, it may have more applications in therapy, Fulmer said, but it still may not be right for everyone.

“Right now, there is no substitute for a human counselor,” Fulmer said. “[AI] synthesizes large data sets, it’s good with offering some useful information. But only a real-life therapist can get to know you and tailor their responses and their presence to you.”

 


ARTICOLI CORRELATI