Gli scienziati rivelano perché utilizzare ChatGPT per messaggiare con i tuoi amici non è una buona idea.

15 Settembre 2023 2518
Share Tweet

Un recente studio della Ohio State University ha rivelato che le persone si sentono meno soddisfatte nelle loro relazioni quando scoprono che un amico ha utilizzato l’intelligenza artificiale o un altro essere umano per aiutarli a creare un messaggio per loro. Lo studio sottolinea l’importanza dello sforzo personale nel mantenere le relazioni, suggerendo che fare affidamento sull’intelligenza artificiale o su altri può essere visto come una scorciatoia.

Secondo una recente ricerca, utilizzare strumenti di intelligenza artificiale per scrivere messaggi agli amici potrebbe non essere la scelta migliore, soprattutto se l’amico viene a conoscenza del coinvolgimento dell’intelligenza artificiale. Lo studio ha rivelato che i partecipanti hanno ritenuto che un amico immaginario che utilizzava l’intelligenza artificiale per creare messaggi apparisse meno sincero nei loro sforzi rispetto a uno che aveva creato il messaggio manualmente.

Questa percezione può essere comprensibile, ma le implicazioni vanno oltre il semplice contenuto del messaggio, ha affermato Bingjie Liu, autore principale dello studio e assistente professore di comunicazione presso la Ohio State University.

"Dopo aver ricevuto un messaggio assistito dall'intelligenza artificiale, le persone si sentono meno soddisfatte della relazione con il proprio amico e si sentono più incerte sulla propria posizione", ha detto Liu.

Ma per essere onesti nei confronti dell’intelligenza artificiale, non è stato solo l’uso della tecnologia a scoraggiare le persone. Lo studio ha anche riscontrato effetti negativi quando le persone hanno appreso che il loro amico veniva aiutato da un'altra persona per scrivere un messaggio.

“Le persone vogliono che i loro partner o amici si sforzino di proporre il proprio messaggio senza l’aiuto – dell’intelligenza artificiale o di altre persone”, ha detto Liu.

Lo studio è stato pubblicato recentemente online sul Journal of Social and Personal Relationships.

Man mano che i chatbot basati sull’intelligenza artificiale come ChatGPT diventano sempre più popolari, le questioni su come utilizzarli diventeranno più rilevanti e complesse, ha affermato Liu.

Lo studio ha coinvolto 208 adulti che hanno partecipato online. Ai partecipanti è stato detto che erano buoni amici da anni con qualcuno di nome Taylor. È stato loro proposto uno di tre scenari: stavano sperimentando un burnout e avevano bisogno di supporto, stavano avendo un conflitto con un collega e avevano bisogno di consigli, oppure il loro compleanno si stava avvicinando.

Ai partecipanti è stato quindi chiesto di scrivere un breve messaggio a Taylor descrivendo la loro situazione attuale in una casella di testo sullo schermo del computer.

A tutti i partecipanti è stato detto che Taylor aveva inviato loro una risposta. Negli scenari, Taylor ha scritto una bozza iniziale. Ad alcuni partecipanti è stato detto che Taylor aveva un sistema di intelligenza artificiale per aiutare a rivedere il messaggio per ottenere il tono corretto, ad altri è stato detto che un membro di una comunità di scrittori ha aiutato a apportare revisioni e a un terzo gruppo è stato detto che Taylor aveva apportato tutte le modifiche al messaggio.

In ogni caso, alle persone coinvolte nello studio è stata detta la stessa cosa riguardo alla risposta di Taylor, incluso il fatto che era “premurosa”. Tuttavia, i partecipanti allo studio avevano opinioni diverse sul messaggio che presumibilmente avevano ricevuto da Taylor. Coloro che hanno ricevuto una risposta aiutati dall'intelligenza artificiale hanno valutato ciò che Taylor ha fatto come meno appropriato e più improprio rispetto a coloro che hanno ricevuto la risposta scritta solo da Taylor.

Le risposte dell’intelligenza artificiale hanno anche portato i partecipanti a esprimere meno soddisfazione per la loro relazione, ad esempio valutando Taylor più in basso nel soddisfare “i miei bisogni di amico intimo”.

Inoltre, le persone coinvolte nello studio erano più incerte riguardo alla loro relazione con Taylor se avevano ricevuto la risposta assistita dall’intelligenza artificiale, essendo meno sicure riguardo all’affermazione “Piaccio a Taylor come amico intimo”.

Una possibile ragione per cui le persone potrebbero non apprezzare la risposta assistita dall’intelligenza artificiale potrebbe essere che le persone pensano che l’uso della tecnologia sia inappropriato e inferiore a quello degli esseri umani nel creare messaggi personali come questi.

Ma i risultati hanno mostrato che le persone hanno risposto altrettanto negativamente alle risposte in cui Taylor aveva un altro essere umano – un membro di una comunità di scrittori online – che lo aiutava con il messaggio.

“Quello che abbiamo scoperto è che le persone non pensano che un amico dovrebbe utilizzare terze parti – l’intelligenza artificiale o un altro essere umano – per mantenere la loro relazione”, ha detto Liu.

Il motivo, secondo lo studio, era che i partecipanti ritenevano che Taylor dedicasse meno sforzi alla loro relazione facendo affidamento sull’intelligenza artificiale o su un’altra persona per creare un messaggio.

Meno i partecipanti valutavano lo sforzo di Taylor utilizzando l’intelligenza artificiale o un’altra persona, meno soddisfatti erano della loro relazione e maggiore era l’incertezza riguardo all’amicizia.

"Lo sforzo è molto importante in una relazione", ha detto Liu. "Le persone vogliono sapere quanto sei disposto a investire nella tua amicizia e se sentono che stai prendendo scorciatoie usando l'intelligenza artificiale per aiutare, non va bene."

Naturalmente, la maggior parte delle persone non dirà a un amico di aver utilizzato l’intelligenza artificiale per creare un messaggio, ha detto Liu. Ma ha notato che man mano che ChatGPT e altri servizi diventano più popolari, le persone potrebbero iniziare a fare un test di Turing nella loro mente mentre leggono i messaggi di amici e altri.

La frase "Test di Turing" viene talvolta utilizzata per riferirsi a persone che si chiedono se riescono a capire se un'azione è stata eseguita da un computer o da una persona.

"Potrebbe darsi che le persone facciano segretamente questo test di Turing nella loro mente, cercando di capire se i messaggi hanno qualche componente di intelligenza artificiale", ha detto Liu. "Potrebbe danneggiare le relazioni."

La risposta è fare il proprio lavoro nelle relazioni, ha detto.

“Non usare la tecnologia solo perché è conveniente. La sincerità e l’autenticità contano ancora molto nelle relazioni”.


ARTICOLI CORRELATI