Czy powinniśmy używać AI do wskrzeszania cyfrowych 'duchów' zmarłych?
Kiedy tęsknimy za bliską osobą, która odeszła, możemy przeglądać stare zdjęcia lub odsłuchiwać dawne wiadomości głosowe. Teraz, dzięki technologii sztucznej inteligencji, możesz również rozmawiać z wirtualnym botem stworzonym tak, aby wyglądał i brzmiał dokładnie jak ona.
Firmy Silicon Intelligence i Super Brain już oferują tę usługę. Obydwie korzystają z generatywnych modeli AI, w tym dużych modeli języka, podobnych do tych, które stoją za ChatGPT, aby przeszukiwać fragmenty tekstu, zdjęcia, nagrania dźwiękowe, filmy i inne dane. Wykorzystują te informacje do stworzenia cyfrowych "duchów" zmarłych do odwiedzania żywych.
Zwane griefbotami, deadbotami lub usługami rekreacji, te cyfrowe repliki zmarłych "tworzą iluzję, że osoba nieżyjąca nadal żyje i może oddziaływać na świat, jakby nic się nie stało, jakby śmierć nie nastąpiła" - mówi Katarzyna Nowaczyk-Basińska, badaczka z Leverhulme Centre for the Future of Intelligence na Uniwersytecie Cambridge, która bada, w jaki sposób technologia kształtuje ludzkie doświadczenia związane ze śmiercią, stratą i żałobą.
Wraz z kolegą Tomaszem Hollankiem, etykiem technologii na tym samym uniwersytecie, niedawno zbadali ryzyko technologii umożliwiającej rodzaj "cyfrowej nieśmiertelności" w artykule opublikowanym 9 maja w Philosophy & Technology. Czy technologia AI wyprzedza szacunek dla godności człowieka? Aby zrozumieć to, Science News rozmawiało z Nowaczyk-Basińską. Wywiad został skrócony i sformułowany w sposób zrozumiały.
SN: W serialu telewizyjnym Black Mirror w 2013 roku ukazał się mrożący krew w żyłach odcinek o kobiecie, która dostaje robota naśladującego jej zmarłego chłopaka. Jak realistyczna jest ta historia?
Nowaczyk-Basińska: Jesteśmy już tutaj, bez ciała. Ale zdecydowanie cyfrowe wskrzeszenie oparte na ogromnej ilości danych - to jest nasza rzeczywistość.
W mojej stosunkowo krótkiej karierze naukowej byłem świadkiem znaczącej zmiany, od momentu, w którym technologie cyfrowej nieśmiertelności były postrzegane jako bardzo zaniedbany niszowy obszar, do momentu, w którym mamy termin "cyfrowa branża pogrzebowa". Dla mnie jako badacza jest to fascynujące. Jako człowiek, może to być bardzo przerażające i niepokojące.
Wykorzystujemy spekulatywne scenariusze i fikcję projektową jako metodę badawczą. Ale nie odnosimy się do jakiejś odległej przyszłości. Zamiast tego spekulujemy, co jest technologicznie i społecznie możliwe tutaj i teraz.
SN: Twój artykuł przedstawia trzy wyobrażone, a jednak problematyczne, scenariusze, które mogłyby powstać w związku z tymi deadbotami. Który z nich uważasz za najbardziej dystopijny?
Nowaczyk-Basińska: [W jednym z naszych scenariuszy] przedstawiamy śmiertelnie chora kobietę, która zostawia griefbota do pomocy jej ośmioletniemu synowi w procesie żałoby. Używamy tego przykładu, ponieważ uważamy, że wystawienie dzieci na tę technologię może być bardzo ryzykowne.
Mniemam, że moglibyśmy pójść jeszcze dalej i wykorzystać tę technologię… w najbliższej przyszłości do nawet ukrywania faktu śmierci rodzica lub innego bliskiego krewnego przed dzieckiem. A na razie wiemy bardzo, bardzo mało o tym, jak te technologie wpływałyby na dzieci.
Twierdzimy, że jeśli nie możemy udowodnić, że ta technologia nie będzie szkodliwa, powinniśmy podjąć wszystkie możliwe środki, aby chronić najbardziej narażonych. A w tym wypadku oznaczałoby to ograniczenie dostępu do tych technologii ze względu na wiek.
SN: Jakie inne zabezpieczenia są ważne?
Nowaczyk-Basińska: Powinniśmy upewnić się, że użytkownik jest świadomy… że komunikuje się z AI. [Technologia może] symulować wzorce językowe i cechy osobowości oparte na przetwarzaniu ogromnej ilości danych osobowych. Ale na pewno nie jest to świadoma jednostka (SN: 2/28/24). Opowiadamy się także za opracowywaniem wrażliwych procedur wycofywania lub usuwania deadbotów. I podkreślamy także znaczenie zgody.
SN: Czy mógłbyś opisać scenariusz, który wymyśliłeś, który bada zgodę dla użytkownika bota?
Nowaczyk-Basińska: Przedstawiamy starszą osobę, która potajemnie - to bardzo ważne słowo, potajemnie - zobowiązała się do deadbota, płacąc za 20-letnią subskrypcję, mając nadzieję, że to pocieszy jej dorosłe dzieci. I wyobraź sobie teraz, że po pogrzebie dzieci otrzymują mnóstwo wiadomości e-mail, powiadomień lub aktualizacji od usługi rekreacji, wraz z zaproszeniem do interakcji z botem zmarłego ojca.
[Te dzieci] powinny mieć prawo do decydowania, czy chcą przechodzić przez proces żałoby w ten sposób, czy nie. Dla niektórych osób może to być pocieszające, a może być pomocne, ale dla innych nie.
SN: Twierdzisz również, że ważne jest ochrona godności ludzkiego bytu, nawet po śmierci. W twoim wymyślonym scenariuszu na ten temat dorosła kobieta korzysta z darmowej usługi, aby stworzyć deadbota swojej dawno zmarłej babci. Co się dzieje dalej?
Nowaczyk-Basińska: She asks the deadbot about the recipe for homemade carbonara spaghetti that she loved cooking with her grandmother. Instead of receiving the recipe, she receives a recommendation to order that food from a popular delivery service. Our concern is that griefbots might become a new space for a very sneaky product placement, encroaching upon the dignity of the deceased and disrespecting their memory.
SN: Different cultures have very different ways of handling death. How can safeguards take this into account?
Nowaczyk-Basińska: We are very much aware that there is no universal ethical framework that could be developed here. The topics of death, grief and immortality are hugely culturally sensitive. And solutions that might be enthusiastically adopted in one cultural context could be completely dismissed in another. This year, I started a new research project: I’m aiming to explore different perceptions of AI-enabled simulation of death in three different eastern nations, including Poland, India and probably China.
SN: Why is now the time to act on this?
Nowaczyk-Basińska: When we started working on this paper a year ago, we were a bit concerned whether it’s too [much like] science fiction. Now [it’s] 2024. And with the advent of large language models, especially ChatGPT, these technologies are more accessible. That’s why we so desperately need regulations and safeguards.
Re-creation service providers today are making totally arbitrary decisions of what is acceptable or not. And it’s a bit risky to let commercial entities decide how our digital death and digital immortality should be shaped. People who decide to use digital technologies in end-of-life situations are already in a very, very difficult point in their lives. We shouldn’t make it harder for them through irresponsible technology design.