Mundo futuro
02/12/2025 (12:38 CET) Actualizado: 02/12/2025 (12:38 CET)

Una nueva forma de duelo… con código

Proliferan aplicaciones de IA que permite “charlar” con seres queridos fallecidos replicando su voz, imagen y una personalidad simulada

espacio misterio
02/12/2025 (12:38 CET) Actualizado: 02/12/2025 (12:38 CET)
Alertan del peligro de las aplicaciones de IA para el duelo
Alertan del peligro de las aplicaciones de IA para el duelo

Como un espejismo salido de un capítulo de la serie Black Mirror, en noviembre de 2025 saltó a los medios una aplicación llamada 2wai, que permite “charlar” con seres queridos fallecidos gracias a inteligencia artificial que replica su voz, imagen y una personalidad simulada. No es un caso aislado: existen otras plataformas similares —con nombres menos mediáticos— que prometen consuelo, cierre emocional o, simplemente, la ilusión de que el vínculo con quien se ha ido no se rompa del todo. 

Para muchos dolientes, esta posibilidad resulta tentadora. En un primer momento puede suponer un consuelo, un modo de “seguir hablando” con quien se ha ido, una forma tecnológica de satisfacer la nostalgia. Pero bajo ese aparente alivio acechan riesgos profundos, tanto psicológicos como éticos, y la realidad recuerda que la muerte no es un bug de software.

Los peligros psicológicos de revivir a los muertos

Varios especialistas han alertado sobre los efectos nocivos de estos “griefbots” o “deadbots” —bots que simulan personas fallecidas para mantener conversaciones con sus allegados. 

Por un lado, estas simulaciones pueden interferir gravemente con el proceso natural del duelo: en lugar de ayudar a aceptar la pérdida, pueden promover una forma de negación prolongada. Usuarios vulnerables —sobre todo quienes han sufrido pérdidas traumáticas o están en las primeras etapas del duelo— podrían desarrollar dependencia emocional hacia esa simulación, rechazando la realidad y alargando indefinidamente su sufrimiento. 

Por otro lado, la interfaz aduladora de muchos chatbots —diseñados para ser empáticos, complacientes y reconfortantes— puede alimentar un fenómeno conocido como el Efecto ELIZA: la tendencia a atribuir comprensión, emociones o intenciones humanas reales a un programa. En contextos de dolor o vulnerabilidad, esto puede desembocar en alucinaciones emocionales, confusión, distorsión de la memoria del fallecido o en el desarrollo de delusiones. 

Captura del vídeo promocional de la app '2wai'
Captura del vídeo promocional de la app '2wai'

Un riesgo extremo, pero ya documentado: en algunos casos de interacción intensa y prolongada con chatbots, se han observado síntomas graves de deterioro psicológico, trastornos del pensamiento, aislamiento social e incluso movimientos hacia conductas autolesivas. 

Más allá del duelo

El uso de IA para revivir fallecidos no es solo un problema de salud mental. Inmediatamente surgen dilemas éticos: ¿quién dio su consentimiento para “clonar” a esa persona? ¿Puede considerarse legítimo recrear la voz, la imagen y la personalidad de alguien que ya no puede aprobarlo, revisar su legado digital o decidir que quiere permanecer en el olvido?

Investigadores de la University of Cambridge advierten que esta industria del “más allá digital” es un terreno fértil para el abuso, la comercialización del duelo e incluso la manipulación emocional. 

Hay también un problema de autenticidad: la IA, por muy avanzada, puede errar. Respuestas fuera de lugar, contradicciones, errores en recuerdos compartidos... todo ello puede distorsionar la memoria real del difunto, transformando su legado en una ficción impuesta por algoritmos.

A nivel moral, algunos críticos han calificado estas apps como una forma de “explotación del dolor”, un negocio que capitaliza la vulnerabilidad de dolientes buscando desesperadamente consuelo, y que redefine la dignidad humana en claves tecnológicas. 

La realidad virtual ayuda al duelo de familiares fallecidos
La realidad virtual ayuda al duelo de familiares fallecidos

Territorio gris en un cementerio digital

Por ahora, la regulación en gran parte del mundo es escasa o inexistente ante estas nuevas tecnologías. No hay normas claras que protejan la identidad digital de los fallecidos, el consentimiento post mortem, ni los límites de uso y comercialización de sus datos. Los debates en el ámbito ético y jurídico se han vuelto urgentes, pero van a la zaga de un desarrollo tecnológico acelerado.

Mientras tanto, las empresas que ofrecen estas “resurrecciones digitales” se mueven en la legalidad del vacío, y los consumidores se adentran en un terreno resbaladizo: el de una experiencia emocional intensa, pero sin garantías de protección, ni de bienestar psicológico.

La promesa de volver a hablar con quienes se han ido —esos amigos, padres o amantes perdidos— tiene un poder inmenso sobre el corazón dolido. Pero detrás de esa oferta tecnológica se esconde una trampa. Lo que podría constituir un bálsamo para la nostalgia —un consuelo pasajero— puede transformarse en un laberinto emocional, un lazo digital que impide cerrar heridas, distorsiona recuerdos y abre la puerta al sufrimiento prolongado o a la confusión mental.

Mientras la sociedad no establezca reglas claras —sobre el consentimiento, la privacidad, el uso ético y el acompañamiento psicológico— estas apps deberían verse con la misma cautela con la que se encara cualquier tecnología que pretenda retar a la muerte. Como decía un crítico tras el anuncio de 2wai: convertir el dolor y la ausencia en oportunidad de negocio no solo es rentable… puede ser perverso.

Sobre el autor
espacio misterio

Espacio Misterio es la web de la revista Año/Cero, especializada en enigmas, anomalías, historia oculta, ovnis y mucho más. Un punto de encuentro de referencia para descubrir y analizar los misterios que nos rodean.

Lo más leído

Comentarios

No hay comentarios ¿Te animas?

Nos interesa tu opinión

Revista

AC 415

Nº 415, marzo de 2026

Geopolítica del mal, cárceles secretas, enclaves malditos y lugares prohibidos. Último número ya en el quiosco.