¿Deberíamos usar la IA para resucitar los 'fantasmas' digitales de los muertos?
Cuando alguien extraña a un ser querido que ha fallecido, es posible que mire fotos antiguas o escuche antiguos mensajes de voz. Ahora, con la tecnología de inteligencia artificial, también puedes hablar con un bot virtual diseñado para parecerse y sonar exactamente como esa persona.
Las empresas Silicon Intelligence y Super Brain ya ofrecen este servicio. Ambas dependen de la IA generativa, incluyendo grandes modelos de lenguaje similares al de ChatGPT, para analizar fragmentos de texto, fotos, grabaciones de audio, video y otros datos. Utilizan esta información para crear "fantasmas" digitales de los muertos para visitar a los vivos.
Llamados "griefbots", "deadbots" o servicios de recreación, estas réplicas digitales del difunto "crean la ilusión de que una persona muerta sigue viva y puede interactuar con el mundo como si nada hubiera sucedido, como si la muerte no hubiera ocurrido", dice Katarzyna Nowaczyk-Basińska, investigadora del Leverhulme Centre for the Future of Intelligence de la Universidad de Cambridge que estudia cómo la tecnología moldea las experiencias de las personas con la muerte, la pérdida y el duelo.
Ella y su colega Tomasz Hollanek, experto en ética tecnológica de la misma universidad, exploraron recientemente los riesgos de la tecnología que permite un tipo de "inmortalidad digital" en un trabajo publicado el 9 de mayo en Philosophy & Technology. ¿Podría la tecnología de IA estar avanzando más rápido que el respeto por la dignidad humana? Para tener una idea de esto, Science News habló con Nowaczyk-Basińska. Esta entrevista ha sido editada por su longitud y claridad.
SN: La serie de televisión Black Mirror presentó un inquietante episodio en 2013 sobre una mujer que tiene un robot que imita a su novio muerto. ¿Cuán realista es esa historia?
Nowaczyk-Basińska: Ya estamos aquí, sin el cuerpo. Pero definitivamente la resurrección digital basada en una gran cantidad de datos, es nuestra realidad.
En mi corta carrera académica, he sido testigo de un cambio significativo del punto donde las tecnologías de inmortalidad digital eran percibidas como un nicho muy marginal, al punto donde tenemos el término "industria del más allá digital". Para mí, como investigadora, es fascinante. Como persona, puede ser muy aterrador y preocupante.
Usamos escenarios especulativos y ficción de diseño como un método de investigación. Pero no nos referimos a un futuro lejano. En cambio, especulamos sobre lo que es tecnológica y socialmente posible aquí y ahora.
SN: Tu artículo presenta tres escenarios imaginarios, pero problemáticos, que podrían surgir con estos deadbots. ¿Cuál de ellos te parece más distópico personalmente?
Nowaczyk-Basińska: [En uno de nuestros escenarios], presentamos a una mujer terminalmente enferma que deja un "griefbot" para ayudar a su hijo de ocho años con el proceso de duelo. Usamos este ejemplo porque creemos que exponer a los niños a esta tecnología puede ser muy riesgoso.
Pienso que podríamos ir incluso más allá y usar esto... en un futuro cercano para ocultar el hecho de la muerte de un padre o de otro pariente significativo a un niño. Y en este momento, sabemos muy poco sobre cómo estas tecnologías influirían en los niños.
Argumentamos que si no podemos demostrar que esta tecnología no será perjudicial, deberíamos tomar todas las medidas posibles para proteger a los más vulnerables. Y en este caso, eso significaría el acceso restringido por edad a estas tecnologías.
SN: ¿Qué otras salvaguardas son importantes?
Nowaczyk-Basińska: Debemos asegurarnos de que el usuario sea consciente... de que está interactuando con una IA. [La tecnología puede] simular patrones de lenguaje y rasgos de personalidad basándose en el procesamiento de grandes cantidades de datos personales. Pero definitivamente no es una entidad consciente. También abogamos por el desarrollo de procedimientos sensibles para retirar o eliminar los "deadbots". Y también destacamos la importancia del consentimiento.
SN: ¿Podrías describir el escenario que imaginaste que explora el consentimiento por parte del usuario del bot?
Nowaczyk-Basińska: Presentamos a una persona mayor que secretamente, esa es una palabra muy importante, secretamente, se compromete con un "deadbot" de sí misma, pagando una suscripción de 20 años, con la esperanza de que consuele a sus hijos adultos. Y ahora imagina que después del funeral, los hijos reciben un montón de correos electrónicos, notificaciones o actualizaciones del servicio de recreación, junto con la invitación a interactuar con el bot de su padre fallecido.
[Los hijos] deberían tener derecho a decidir si quieren pasar por el proceso de duelo de esta manera o no. Para algunas personas, podría ser reconfortante y útil, pero para otras no.
SN: También argumentas que es importante proteger la dignidad de los seres humanos, incluso después de la muerte. En tu escenario imaginado sobre este problema, una mujer adulta usa un servicio gratuito para crear un "deadbot" de su abuela que murió hace mucho tiempo. ¿Qué sucede a continuación?
Nowaczyk-Basińska: She asks the deadbot about the recipe for homemade carbonara spaghetti that she loved cooking with her grandmother. Instead of receiving the recipe, she receives a recommendation to order that food from a popular delivery service. Our concern is that griefbots might become a new space for a very sneaky product placement, encroaching upon the dignity of the deceased and disrespecting their memory.
SN: Different cultures have very different ways of handling death. How can safeguards take this into account?
Nowaczyk-Basińska: We are very much aware that there is no universal ethical framework that could be developed here. The topics of death, grief and immortality are hugely culturally sensitive. And solutions that might be enthusiastically adopted in one cultural context could be completely dismissed in another. This year, I started a new research project: I’m aiming to explore different perceptions of AI-enabled simulation of death in three different eastern nations, including Poland, India and probably China.
SN: Why is now the time to act on this?
Nowaczyk-Basińska: When we started working on this paper a year ago, we were a bit concerned whether it’s too [much like] science fiction. Now [it’s] 2024. And with the advent of large language models, especially ChatGPT, these technologies are more accessible. That’s why we so desperately need regulations and safeguards.
Re-creation service providers today are making totally arbitrary decisions of what is acceptable or not. And it’s a bit risky to let commercial entities decide how our digital death and digital immortality should be shaped. People who decide to use digital technologies in end-of-life situations are already in a very, very difficult point in their lives. We shouldn’t make it harder for them through irresponsible technology design.