Científicos revelan por qué usar ChatGPT para enviar mensajes a tus amigos no es una buena idea.

15 Septiembre 2023 2528
Share Tweet

Un estudio reciente de la Universidad Estatal de Ohio reveló que las personas se sienten menos satisfechas en sus relaciones cuando se enteran de que un amigo utilizó IA u otro ser humano para ayudar a redactar un mensaje para ellos. El estudio enfatiza la importancia del esfuerzo personal para mantener las relaciones, lo que sugiere que confiar en la IA o en otros puede considerarse como una forma de tomar atajos.

Utilizar herramientas de IA para redactar mensajes a amigos podría no ser la mejor opción, especialmente si el amigo se entera de la participación de la IA, indica una investigación reciente. El estudio reveló que los participantes sintieron que un amigo ficticio que usaba IA para redactar mensajes parecía menos sincero en sus esfuerzos en comparación con uno que redactaba su mensaje manualmente.

Esa percepción puede ser comprensible, pero las implicaciones se extienden más allá del contenido del mensaje, expresó Bingjie Liu, autora principal del estudio y profesora asistente de comunicación en la Universidad Estatal de Ohio.

"Después de recibir un mensaje asistido por IA, las personas se sienten menos satisfechas con su relación con su amigo y más inseguras sobre su posición", dijo Liu.

Pero para ser justos con la IA, no fue sólo el uso de la tecnología lo que desanimó a la gente. El estudio también encontró efectos negativos cuando las personas se enteraron de que su amigo recibió ayuda de otra persona para escribir un mensaje.

"La gente quiere que sus socios o amigos se esfuercen por crear su propio mensaje sin ayuda, ni de IA ni de otras personas", dijo Liu.

El estudio fue publicado recientemente en línea en el Journal of Social and Personal Relationships.

A medida que los chatbots de IA como ChatGPT se vuelven cada vez más populares, las cuestiones sobre cómo usarlos se volverán más relevantes y complejas, dijo Liu.

En el estudio participaron 208 adultos que participaron en línea. A los participantes se les dijo que habían sido buenos amigos de alguien llamado Taylor durante años. Se les presentó uno de tres escenarios: estaban agotados y necesitaban apoyo, estaban teniendo un conflicto con un colega y necesitaban consejo, o se acercaba su cumpleaños.

Luego se pidió a los participantes que escribieran un mensaje corto a Taylor describiendo su situación actual en un cuadro de texto en la pantalla de su computadora.

A todos los participantes se les dijo que Taylor les envió una respuesta. En los escenarios, Taylor escribió un borrador inicial. A algunos participantes se les dijo que Taylor tenía un sistema de inteligencia artificial para ayudar a revisar el mensaje y lograr el tono adecuado, a otros se les dijo que un miembro de una comunidad de escritores ayudó a hacer las revisiones y a un tercer grupo se le dijo que Taylor hizo todas las ediciones del mensaje.

En todos los casos, a las personas en el estudio se les dijo lo mismo sobre la respuesta de Taylor, incluso que fue "reflexiva". Aún así, los participantes en el estudio tenían diferentes puntos de vista sobre el mensaje que supuestamente habían recibido de Taylor. Aquellos que recibieron una respuesta ayudada por AI calificaron lo que hizo Taylor como menos apropiado y más impropio que aquellos que recibieron la respuesta escrita únicamente por Taylor.

Las respuestas de IA también llevaron a los participantes a expresar menos satisfacción con su relación, como calificar a Taylor con una calificación más baja en cuanto a satisfacer “mis necesidades como amigo cercano”.

Además, las personas en el estudio estaban más inseguras acerca de su relación con Taylor si recibían la respuesta asistida por IA, y estaban menos seguras acerca de la afirmación "A Taylor le gusto como un amigo cercano".

Una posible razón por la que a la gente no le guste la respuesta asistida por IA podría ser que la gente piense que usar la tecnología es inapropiado e inferior a los humanos para elaborar mensajes personales como estos.

Pero los resultados mostraron que las personas respondieron igual de negativamente a las respuestas en las que Taylor contaba con la ayuda de otro ser humano, un miembro de una comunidad de escritores en línea, con el mensaje.

"Lo que encontramos es que la gente no cree que un amigo deba utilizar a un tercero (IA u otro ser humano) para ayudar a mantener su relación", dijo Liu.

La razón, según el estudio, fue que los participantes sintieron que Taylor dedicó menos esfuerzo a su relación al confiar en la IA o en otra persona para ayudar a redactar un mensaje.

Cuanto peor calificaron los participantes el esfuerzo de Taylor al usar IA u otra persona, menos satisfechos estaban con su relación y más incertidumbre sentían sobre la amistad.

"El esfuerzo es muy importante en una relación", dijo Liu. "La gente quiere saber cuánto estás dispuesto a invertir en tu amistad y si sienten que estás tomando atajos al utilizar la IA para ayudar, eso no es bueno".

Por supuesto, la mayoría de las personas no le dirán a un amigo que usaron IA para ayudar a redactar un mensaje, dijo Liu. Pero señaló que a medida que ChatGPT y otros servicios se vuelven más populares, las personas pueden comenzar a realizar una prueba de Turing en sus mentes mientras leen mensajes de amigos y otras personas.

La frase "Prueba de Turing" se utiliza a veces para referirse a personas que se preguntan si pueden saber si una acción fue realizada por una computadora o por una persona.

"Podría ser que la gente haga en secreto esta prueba de Turing en su mente, tratando de descubrir si los mensajes tienen algún componente de IA", dijo Liu. "Puede dañar las relaciones".

La respuesta es hacer tu propio trabajo en las relaciones, dijo.

“No utilices la tecnología sólo porque sea conveniente. La sinceridad y la autenticidad siguen siendo muy importantes en las relaciones”.


ARTÍCULOS RELACIONADOSL