Moeten we AI gebruiken om digitale 'geesten' van de doden te doen herrijzen?
Wanneer je een geliefde mist die is overleden, kun je oude foto's bekijken of oude voicemails beluisteren. Nu kun je, met behulp van kunstmatige intelligentie technologie, ook praten met een virtuele bot die er precies zo uitziet en klinkt als zij.
De bedrijven Silicon Intelligence en Super Brain bieden deze dienst al aan. Beide bedrijven vertrouwen op generatieve AI, waaronder grote taalmodellen vergelijkbaar met het model achter ChatGPT, om door stukjes tekst, foto's, audio-opnamen, video en andere data te ploegen. Ze gebruiken deze informatie om digitale "spoken" van de doden te creëren om de levenden te bezoeken.
Deze digitale replica's van de overledenen, griefbots, deadbots of re-creation services genoemd, "creëren de illusie dat een overleden persoon nog leeft en met de wereld kan interageren alsof er niets is gebeurd, alsof de dood niet heeft plaatsgevonden," zegt Katarzyna Nowaczyk-Basińska, een onderzoeker aan het Leverhulme Centre for the Future of Intelligence aan de Universiteit van Cambridge die onderzoekt hoe technologie de ervaringen van mensen met de dood, verlies en rouw vormgeeft.
Zij en collega Tomasz Hollanek, een technologie-ethicus aan dezelfde universiteit, verkenden onlangs de risico's van technologie die een soort "digitale onsterfelijkheid" mogelijk maakt in een artikel dat op 9 mei is gepubliceerd in Philosophy & Technology. Loopt de AI-technologie vooruit op het respect voor menselijke waardigheid? Om hier grip op te krijgen, sprak Science News met Nowaczyk-Basińska. Dit interview is bewerkt voor lengte en duidelijkheid.
SN: De tv-serie Black Mirror toonde in 2013 een angstaanjagende aflevering over een vrouw die een robot krijgt die haar overleden vriendje nabootst. Hoe realistisch is dat verhaal?
Nowaczyk-Basińska: We zijn al zover, zonder het lichaam. Maar zeker de digitale herrijzenis gebaseerd op een enorme hoeveelheid data - dat is onze realiteit.
In mijn relatief korte academische carrière heb ik een aanzienlijke verschuiving waargenomen van het punt waarop digitale onsterfelijkheidstechnologieën werden gezien als een zeer gemarginaliseerde nichemarkt, tot het punt waarop we de term "digitale nalatenschap industrie" hebben. Voor mij als onderzoeker is het fascinerend. Als persoon kan het erg beangstigend en verontrustend zijn.
We gebruiken speculatieve scenario's en ontwerpfictie als onderzoeksmethode. Maar we verwijzen niet naar een verre toekomst. In plaats daarvan speculeren we over wat hier en nu technologisch en sociaal mogelijk is.
SN: Uw paper presenteert drie denkbeeldige, maar problematische, scenario's die zich kunnen voordoen met deze deadbots. Welke vind je persoonlijk het meest dystopisch?
Nowaczyk-Basińska: [In een van onze scenario's] presenteren we een terminaal zieke vrouw die een griefbot achterlaat om haar achtjarige zoon te helpen met het rouwproces. We gebruiken dit voorbeeld omdat we denken dat het blootstellen van kinderen aan deze technologie erg riskant kan zijn.
Ik denk dat we nog verder zouden kunnen en dit in de nabije toekomst zelfs zouden kunnen gebruiken om het feit van de dood van een ouder of een andere belangrijke familielid voor een kind te verbergen. En op dit moment weten we heel, heel weinig over hoe deze technologieën kinderen zouden beïnvloeden.
We stellen dat als we niet kunnen bewijzen dat deze technologie niet schadelijk zal zijn, we alle mogelijke maatregelen moeten nemen om de meest kwetsbaren te beschermen. En in dit geval zou dat betekenen dat er leeftijdsbeperkingen worden gesteld aan de toegang tot deze technologieën.
SN: Welke andere beschermingsmaatregelen zijn belangrijk?
Nowaczyk-Basińska: We moeten ervoor zorgen dat de gebruiker zich ervan bewust is ...dat ze interactie hebben met AI. [De technologie kan] taalpatronen en persoonlijkheidstrekken simuleren op basis van het verwerken van enorme hoeveelheden persoonlijke gegevens. Maar het is zeker geen bewustzijn (SN: 2/28/24). We pleiten ook voor het ontwikkelen van gevoelige procedures voor het pensioneren of verwijderen van deadbots. En we benadrukken ook het belang van toestemming.
SN: Kunt u het scenario beschrijven dat u zich voorstelde over toestemming voor de botgebruiker?
Nowaczyk-Basińska: We presenteren een ouder persoon die stiekem - dat is een heel belangrijk woord, stiekem - zich heeft opgegeven voor een deadbot van zichzelf, betalend voor een abonnement van 20 jaar, in de hoop dat het hun volwassen kinderen zal troosten. En stel je nu eens voor dat na de begrafenis de kinderen een stel e-mails, meldingen of updates ontvangen van de re-creation service, samen met de uitnodiging om te communiceren met de bot van hun overleden vader.
[De kinderen] zouden het recht moeten hebben om te beslissen of ze het rouwproces op deze manier willen doorgaan of niet. Voor sommige mensen kan het troostend en behulpzaam zijn, maar voor anderen niet.
SN: U stelt ook dat het belangrijk is om de waardigheid van mensen te beschermen, zelfs na de dood. In uw voorgestelde scenario over deze kwestie, gebruikt een volwassen vrouw een gratis service om een deadbot van haar lang overleden grootmoeder te creëren. Wat gebeurt er dan?
Nowaczyk-Basińska: She asks the deadbot about the recipe for homemade carbonara spaghetti that she loved cooking with her grandmother. Instead of receiving the recipe, she receives a recommendation to order that food from a popular delivery service. Our concern is that griefbots might become a new space for a very sneaky product placement, encroaching upon the dignity of the deceased and disrespecting their memory.
SN: Different cultures have very different ways of handling death. How can safeguards take this into account?
Nowaczyk-Basińska: We are very much aware that there is no universal ethical framework that could be developed here. The topics of death, grief and immortality are hugely culturally sensitive. And solutions that might be enthusiastically adopted in one cultural context could be completely dismissed in another. This year, I started a new research project: I’m aiming to explore different perceptions of AI-enabled simulation of death in three different eastern nations, including Poland, India and probably China.
SN: Why is now the time to act on this?
Nowaczyk-Basińska: When we started working on this paper a year ago, we were a bit concerned whether it’s too [much like] science fiction. Now [it’s] 2024. And with the advent of large language models, especially ChatGPT, these technologies are more accessible. That’s why we so desperately need regulations and safeguards.
Re-creation service providers today are making totally arbitrary decisions of what is acceptable or not. And it’s a bit risky to let commercial entities decide how our digital death and digital immortality should be shaped. People who decide to use digital technologies in end-of-life situations are already in a very, very difficult point in their lives. We shouldn’t make it harder for them through irresponsible technology design.