Una nueva forma de duelo… con código
Proliferan aplicaciones de IA que permite “charlar” con seres queridos fallecidos replicando su voz, imagen y una personalidad simulada
Como un espejismo salido de un capítulo de la serie Black Mirror, en noviembre de 2025 saltó a los medios una aplicación llamada 2wai, que permite “charlar” con seres queridos fallecidos gracias a inteligencia artificial que replica su voz, imagen y una personalidad simulada. No es un caso aislado: existen otras plataformas similares —con nombres menos mediáticos— que prometen consuelo, cierre emocional o, simplemente, la ilusión de que el vínculo con quien se ha ido no se rompa del todo.
Para muchos dolientes, esta posibilidad resulta tentadora. En un primer momento puede suponer un consuelo, un modo de “seguir hablando” con quien se ha ido, una forma tecnológica de satisfacer la nostalgia. Pero bajo ese aparente alivio acechan riesgos profundos, tanto psicológicos como éticos, y la realidad recuerda que la muerte no es un bug de software.
Los peligros psicológicos de revivir a los muertos
Varios especialistas han alertado sobre los efectos nocivos de estos “griefbots” o “deadbots” —bots que simulan personas fallecidas para mantener conversaciones con sus allegados.
Por un lado, estas simulaciones pueden interferir gravemente con el proceso natural del duelo: en lugar de ayudar a aceptar la pérdida, pueden promover una forma de negación prolongada. Usuarios vulnerables —sobre todo quienes han sufrido pérdidas traumáticas o están en las primeras etapas del duelo— podrían desarrollar dependencia emocional hacia esa simulación, rechazando la realidad y alargando indefinidamente su sufrimiento.
Por otro lado, la interfaz aduladora de muchos chatbots —diseñados para ser empáticos, complacientes y reconfortantes— puede alimentar un fenómeno conocido como el Efecto ELIZA: la tendencia a atribuir comprensión, emociones o intenciones humanas reales a un programa. En contextos de dolor o vulnerabilidad, esto puede desembocar en alucinaciones emocionales, confusión, distorsión de la memoria del fallecido o en el desarrollo de delusiones.

Un riesgo extremo, pero ya documentado: en algunos casos de interacción intensa y prolongada con chatbots, se han observado síntomas graves de deterioro psicológico, trastornos del pensamiento, aislamiento social e incluso movimientos hacia conductas autolesivas.
Más allá del duelo
El uso de IA para revivir fallecidos no es solo un problema de salud mental. Inmediatamente surgen dilemas éticos: ¿quién dio su consentimiento para “clonar” a esa persona? ¿Puede considerarse legítimo recrear la voz, la imagen y la personalidad de alguien que ya no puede aprobarlo, revisar su legado digital o decidir que quiere permanecer en el olvido?
Investigadores de la University of Cambridge advierten que esta industria del “más allá digital” es un terreno fértil para el abuso, la comercialización del duelo e incluso la manipulación emocional.
Hay también un problema de autenticidad: la IA, por muy avanzada, puede errar. Respuestas fuera de lugar, contradicciones, errores en recuerdos compartidos... todo ello puede distorsionar la memoria real del difunto, transformando su legado en una ficción impuesta por algoritmos.
A nivel moral, algunos críticos han calificado estas apps como una forma de “explotación del dolor”, un negocio que capitaliza la vulnerabilidad de dolientes buscando desesperadamente consuelo, y que redefine la dignidad humana en claves tecnológicas.

Territorio gris en un cementerio digital
Por ahora, la regulación en gran parte del mundo es escasa o inexistente ante estas nuevas tecnologías. No hay normas claras que protejan la identidad digital de los fallecidos, el consentimiento post mortem, ni los límites de uso y comercialización de sus datos. Los debates en el ámbito ético y jurídico se han vuelto urgentes, pero van a la zaga de un desarrollo tecnológico acelerado.
Mientras tanto, las empresas que ofrecen estas “resurrecciones digitales” se mueven en la legalidad del vacío, y los consumidores se adentran en un terreno resbaladizo: el de una experiencia emocional intensa, pero sin garantías de protección, ni de bienestar psicológico.
La promesa de volver a hablar con quienes se han ido —esos amigos, padres o amantes perdidos— tiene un poder inmenso sobre el corazón dolido. Pero detrás de esa oferta tecnológica se esconde una trampa. Lo que podría constituir un bálsamo para la nostalgia —un consuelo pasajero— puede transformarse en un laberinto emocional, un lazo digital que impide cerrar heridas, distorsiona recuerdos y abre la puerta al sufrimiento prolongado o a la confusión mental.
Mientras la sociedad no establezca reglas claras —sobre el consentimiento, la privacidad, el uso ético y el acompañamiento psicológico— estas apps deberían verse con la misma cautela con la que se encara cualquier tecnología que pretenda retar a la muerte. Como decía un crítico tras el anuncio de 2wai: convertir el dolor y la ausencia en oportunidad de negocio no solo es rentable… puede ser perverso.







Comentarios
Nos interesa tu opinión