Wissenschaftler enthüllen, warum es keine gute Idee ist, ChatGPT zu verwenden, um mit Ihren Freunden zu chatten.
Eine kürzlich durchgeführte Studie der Ohio State University hat ergeben, dass Menschen sich in ihren Beziehungen weniger zufrieden fühlen, wenn sie erfahren, dass ein Freund KI oder eine andere Person um Hilfe bei der Formulierung einer Nachricht gebeten hat. Die Studie betont die Bedeutung persönlicher Anstrengungen zur Aufrechterhaltung von Beziehungen und legt nahe, dass sich das Verlassen auf KI oder andere als Abkürzung betrachten lassen kann.
Die Nutzung von KI-Tools zur Verfassung von Nachrichten an Freunde ist möglicherweise keine gute Wahl, insbesondere wenn der Freund von der Beteiligung der KI erfährt, wie aktuelle Forschungsergebnisse nahelegen. Die Studie ergab, dass die Teilnehmer den Eindruck hatten, dass ein fiktiver Freund, der KI zur Nachrichtengestaltung verwendete, im Vergleich zu jemandem, der die Nachricht manuell verfasste, weniger aufrichtig wirkte.
Diese Wahrnehmung mag verständlich sein, aber die Auswirkungen gehen über den Inhalt der Nachricht hinaus, so Bingjie Liu, der Hauptautor der Studie und Assistenzprofessor für Kommunikation an der Ohio State University.
"Nachdem sie eine von KI unterstützte Nachricht erhalten haben, sind die Menschen weniger zufrieden mit ihrer Beziehung zu ihrem Freund und fühlen sich unsicherer über ihren Standpunkt", sagte Liu.
Um fair zu KI zu sein, war es nicht nur die Verwendung der Technologie, die die Menschen abgeschreckt hat. Die Studie ergab auch negative Auswirkungen, wenn Menschen erfuhren, dass ihr Freund von einer anderen Person Hilfe beim Verfassen einer Nachricht erhalten hatte.
"Die Leute möchten, dass ihre Partner oder Freunde sich die Mühe machen, ihre eigene Nachricht ohne Hilfe – von KI oder anderen Menschen – zu formulieren", sagte Liu.
Die Studie wurde kürzlich online im Journal of Social and Personal Relationships veröffentlicht.
Da KI-Chatbots wie ChatGPT immer beliebter werden, werden Fragen zur Nutzung von ihnen relevanter und komplexer, so Liu.
Die Studie umfasste 208 Erwachsene, die online teilnahmen. Den Teilnehmern wurde gesagt, dass sie seit Jahren gute Freunde mit jemandem namens Taylor sind. Sie erhielten eine von drei Szenarien: Sie waren erschöpft und brauchten Unterstützung, sie hatten Konflikte mit einem Kollegen und brauchten Rat, oder ihr Geburtstag stand bevor.
Den Teilnehmern wurde dann gesagt, dass sie eine kurze Nachricht an Taylor verfassen sollten, in der sie ihre aktuelle Situation in einem Textfeld auf dem Computerbildschirm beschreiben.
Allen Teilnehmern wurde mitgeteilt, dass Taylor ihnen geantwortet habe. In den Szenarien schrieb Taylor einen ersten Entwurf. Einigen Teilnehmern wurde gesagt, dass Taylor ein KI-System zur Hilfe bei der Überarbeitung der Nachricht verwendete, andere erhielten die Information, dass ein Mitglied einer Schreibgemeinschaft bei der Überarbeitung half, und eine dritte Gruppe erhielt die Information, dass Taylor alle Änderungen an der Nachricht selbst vorgenommen hatte.
In jedem Fall wurde den Studienteilnehmern die gleiche Aussage über Taylors Antwort mitgeteilt, einschließlich der Aussage, dass sie "nachdenklich" sei. Dennoch hatten die Teilnehmer der Studie unterschiedliche Ansichten über die Nachricht, die sie angeblich von Taylor erhalten hatten. Diejenigen, die eine Antwort erhielten, die von KI unterstützt wurde, bewerteten das Verhalten von Taylor als weniger angemessen und unpassender als diejenigen, die die Antwort erhielten, die nur von Taylor verfasst wurde.
KI-Antworten führten auch dazu, dass die Teilnehmer weniger zufrieden mit ihrer Beziehung waren und Taylor niedriger bewerteten in Bezug auf die Erfüllung "ihrer Bedürfnisse als enge Freunde".
Darüber hinaus waren die Studienteilnehmer unsicherer über ihre Beziehung zu Taylor, wenn sie die AI-unterstützte Antwort erhielten, insbesondere unsicher über die Aussage "Taylor mag mich als engen Freund".
Ein möglicher Grund, warum Menschen die KI-unterstützte Antwort nicht mögen könnten, könnte sein, dass sie den Einsatz von Technologie für unangebracht und minderwertig im Vergleich zu Menschen halten, wenn es um persönliche Nachrichten wie diese geht.
Die Ergebnisse zeigten jedoch, dass Menschen genauso negativ auf Antworten reagierten, bei denen Taylor von einer anderen Person – einem Mitglied einer Online-Schreibgemeinschaft – bei der Nachrichtenhilfe unterstützt wurde.
"Was wir festgestellt haben, ist, dass Menschen nicht wollen, dass ein Freund eine dritte Person – sei es KI oder ein anderer Mensch – verwendet, um ihre Beziehung aufrechtzuerhalten", sagte Liu.
Der Grund, so ergab die Studie, war, dass die Teilnehmer das Gefühl hatten, dass Taylor durch den Einsatz von KI oder einer anderen Person weniger Aufwand in ihre Beziehung steckte.
Je weniger Aufwand die Teilnehmer bei Taylor durch den Einsatz von KI oder einer anderen Person sahen, desto weniger zufrieden waren sie mit ihrer Beziehung und desto unsicherer fühlten sie sich in ihrer Freundschaft.
"Aufwand ist sehr wichtig in einer Beziehung", sagte Liu. "Die Menschen möchten wissen, wie viel Sie in ihre Freundschaft investieren, und wenn sie das Gefühl haben, dass Sie Abkürzungen nehmen, indem Sie KI verwenden, ist das nicht gut."
Natürlich werden die meisten Menschen einem Freund nicht sagen, dass sie KI verwendet haben, um eine Nachricht zu verfassen, sagte Liu. Aber sie merkte an, dass, wenn ChatGPT und andere Dienste immer beliebter werden, die Leute möglicherweise einen Turing-Test in ihrem Kopf machen, während sie Nachrichten von Freunden und anderen lesen.
Die Bezeichnung "Turing-Test" wird manchmal verwendet, um zu fragen, ob man erkennen kann, ob eine Aktion von einem Computer oder einer Person ausgeführt wurde.
“It could be that people will secretly do this Turing Test in their mind, trying to figure out if messages have some AI component,” Liu said. “It may hurt relationships.”
The answer is to do your own work in relationships, she said.
“Don’t use technology just because it is convenient. Sincerity and authenticity still matter a lot in relationships.”