Sollten wir KI nutzen, um digitale 'Geister' der Toten wiederzubeleben?

16 Mai 2024 2486
Share Tweet

Wenn man einen geliebten Menschen vermisst, der gestorben ist, schaut man sich vielleicht alte Fotos an oder hört alte Sprachnachrichten an. Jetzt können Sie mit der Technologie der künstlichen Intelligenz auch mit einem virtuellen Bot sprechen, der genau so aussieht und klingt wie der Verstorbene.

Die Unternehmen Silicon Intelligence und Super Brain bieten diesen Service bereits an. Beide setzen auf generative KI, einschließlich großer Sprachmodelle ähnlich dem hinter ChatGPT, um Textschnipsel, Fotos, Tonaufnahmen, Videos und andere Daten zu durchsuchen. Sie verwenden diese Informationen, um digitale "Geister" der Toten zu erstellen, die die Lebenden besuchen.

Ob als Trauerbots, Totebots oder Rekreationsdienste bezeichnet, diese digitalen Repliken der Verstorbenen "erschaffen die Illusion, dass eine tote Person noch am Leben ist und so mit der Welt interagieren kann, als ob nichts tatsächlich geschehen wäre, als ob der Tod nicht stattgefunden hätte", sagt Katarzyna Nowaczyk-Basińska, eine Forscherin am Leverhulme Centre for the Future of Intelligence an der Universität Cambridge, die untersucht, wie Technologie die Erfahrungen der Menschen mit Tod, Verlust und Trauer prägt.

Sie und ihr Kollege Tomasz Hollanek, ein Technologieethiker an der gleichen Universität, untersuchten kürzlich die Risiken von Technologien, die eine Art "digitale Unsterblichkeit" ermöglichen, in einem Artikel, der am 9. Mai in Philosophy & Technology veröffentlicht wurde. Könnte die KI-Technologie schneller voranschreiten als der Respekt vor der Menschenwürde? Um dies zu klären, sprach Science News mit Nowaczyk-Basińska. Dieses Interview wurde aus Gründen der Länge und Klarheit bearbeitet.

SN: Die Fernsehserie Black Mirror zeigte 2013 eine erschreckende Folge über eine Frau, die einen Roboter bekommt, der ihren toten Freund nachahmt. Wie realistisch ist diese Geschichte?

Nowaczyk-Basińska: Wir sind schon da, nur ohne den Körper. Aber die digitale Auferstehung auf der Basis von riesigen Datenmengen - das ist unsere Realität.

In meiner relativ kurzen akademischen Laufbahn habe ich einen bedeutenden Wandel erlebt, von dem Punkt, an dem Technologien der digitalen Unsterblichkeit als sehr marginalisierte Nische wahrgenommen wurden, bis zu dem Punkt, an dem wir den Begriff "digitale Nachlebensindustrie" haben. Für mich als Forscherin ist das faszinierend. Als Mensch kann es sehr beängstigend und besorgniserregend sein.

Wir verwenden spekulative Szenarien und Design-Fiktion als Forschungsmethode. Aber wir beziehen uns nicht auf eine ferne Zukunft. Stattdessen spekulieren wir darüber, was hier und jetzt technologisch und sozial möglich ist.

SN: Ihr Artikel präsentiert drei imaginäre, aber problematische Szenarien, die mit diesen Totebots entstehen könnten. Welches finden Sie persönlich am dystopischsten?

Nowaczyk-Basińska: [In einem unserer Szenarien] stellen wir eine todkranke Frau vor, die einen Trauerbot hinterlässt, um ihrem achtjährigen Sohn bei der Trauerarbeit zu helfen. Wir verwenden dieses Beispiel, weil wir glauben, dass es sehr riskant sein könnte, Kinder dieser Technologie auszusetzen.

Ich denke, wir könnten noch weiter gehen und dies ... in naher Zukunft sogar dazu verwenden, den Tod eines Elternteils oder eines anderen bedeutenden Verwandten vor einem Kind zu verbergen. Und im Moment wissen wir sehr, sehr wenig darüber, wie diese Technologien Kinder beeinflussen würden.

Wir argumentieren, dass wir, wenn wir nicht beweisen können, dass diese Technologie nicht schädlich sein wird, alle möglichen Maßnahmen ergreifen sollten, um die am stärksten gefährdeten zu schützen. Und in diesem Fall würde das bedeuten, dass der Zugang zu diesen Technologien altersbeschränkt ist.

SN: Welche anderen Sicherheitsmaßnahmen sind wichtig?

Nowaczyk-Basińska: Wir sollten sicherstellen, dass der Benutzer sich bewusst ist ... dass er mit KI interagiert. [Die Technologie kann] Sprachmuster und Persönlichkeitsmerkmale auf der Grundlage der Verarbeitung riesiger Mengen persönlicher Daten simulieren. Aber es ist definitiv keine bewusste Entität (SN: 2/28/24). Wir fordern auch die Entwicklung sensibler Verfahren zur Stilllegung oder Löschung von Totebots. Und wir betonen auch die Bedeutung der Zustimmung.

SN: Könnten Sie das von Ihnen vorgestellte Szenario beschreiben, das die Zustimmung des Bot-Benutzers erforscht?

Nowaczyk-Basińska: Wir stellen eine ältere Person vor, die heimlich - das ist ein sehr wichtiges Wort, heimlich - einen Totebot von sich selbst in Auftrag gegeben hat, in der Hoffnung, dass er ihre erwachsenen Kinder trösten wird. Und stellen Sie sich jetzt einfach vor, dass die Kinder nach der Beerdigung eine Reihe von E-Mails, Benachrichtigungen oder Updates von dem Rekreationsdienst erhalten, zusammen mit der Einladung, mit dem Bot ihres verstorbenen Vaters zu interagieren.

[Die Kinder] sollten das Recht haben zu entscheiden, ob sie den Trauerprozess auf diese Weise durchlaufen wollen oder nicht. Für manche Menschen mag es tröstlich sein und helfen, für andere nicht.

SN: Sie argumentieren auch, dass es wichtig ist, die Würde der Menschen zu schützen, sogar nach dem Tod. In Ihrem imaginierten Szenario zu dieser Frage nutzt eine erwachsene Frau einen kostenlosen Dienst, um einen Totebot ihrer schon lange verstorbenen Großmutter zu schaffen. Was passiert als nächstes?

Nowaczyk-Basińska: She asks the deadbot about the recipe for homemade carbonara spaghetti that she loved cooking with her grandmother. Instead of receiving the recipe, she receives a recommendation to order that food from a popular delivery service. Our concern is that griefbots might become a new space for a very sneaky product placement, encroaching upon the dignity of the deceased and disrespecting their memory.

SN: Different cultures have very different ways of handling death. How can safeguards take this into account?

Nowaczyk-Basińska: We are very much aware that there is no universal ethical framework that could be developed here. The topics of death, grief and immortality are hugely culturally sensitive. And solutions that might be enthusiastically adopted in one cultural context could be completely dismissed in another. This year, I started a new research project: I’m aiming to explore different perceptions of AI-enabled simulation of death in three different eastern nations, including Poland, India and probably China.

SN: Why is now the time to act on this?

Nowaczyk-Basińska: When we started working on this paper a year ago, we were a bit concerned whether it’s too [much like] science fiction. Now [it’s] 2024. And with the advent of large language models, especially ChatGPT, these technologies are more accessible. That’s why we so desperately need regulations and safeguards.

Re-creation service providers today are making totally arbitrary decisions of what is acceptable or not. And it’s a bit risky to let commercial entities decide how our digital death and digital immortality should be shaped. People who decide to use digital technologies in end-of-life situations are already in a very, very difficult point in their lives. We shouldn’t make it harder for them through irresponsible technology design.


ZUGEHÖRIGE ARTIKEL