Griefbots: avatares de fallecidos con inteligencia artificial

Hace unos meses, una amiga me contó algo que me dejó atónito y con mucha curiosidad:
“Estoy hablando con mi mamá… en una app. Me responde como ella, me llama como me llamaba, me dice las mismas frases. Siento que está viva.”
Su madre había fallecido hacía más de un año. Pero gracias a una herramienta de inteligencia artificial, ella había podido volver a escuchar su voz.
No un recuerdo. No una grabación.
Una conversación.
Eso me hizo pensar:
¿Estamos listos para esto?
¿Puede la IA ayudarnos a procesar el duelo?
¿O estamos abriendo una puerta que no sabemos cerrar?
Este post explora a fondo el fenómeno de los griefbots:
Qué son, cómo funcionan, qué empresas los desarrollan, sus implicaciones éticas y su impacto psicológico. Sin morbo. Con profundidad. Porque estamos en un momento histórico en el que la tecnología no solo cambia cómo vivimos…
También cambia cómo nos recordarán después de morir. Y cómo extrañamos.
Tabla de Contenidos:
Toggle¿Qué son los griefbots?
Un griefbot (también llamado deathbot o thanabot) es un sistema de inteligencia artificial diseñado para simular la personalidad y la voz de una persona fallecida.
¿Cómo lo hace?
Utiliza la “huella digital” que dejamos en vida:
- Mensajes de texto
- Correos
- Audios
- Videos
- Publicaciones en redes sociales
- Grabaciones de voz
Con esta información, la IA aprende patrones de habla, tono, lenguaje emocional y estilo.
El resultado: un avatar conversacional que puede responder como esa persona, incluso en tiempo real.
Empresas y herramientas que ya lo hacen
Este no es un experimento secreto. Ya hay empresas operando y vendiendo griefbots:
1. HereAfter AI
Permite a las personas grabar entrevistas en vida. Luego, los familiares pueden interactuar con una versión hablada de ellos después de su muerte.
Puedes hablar con el avatar de tu padre fallecido y preguntarle sobre su infancia, sus valores, sus historias.
2. Re;memory (DeepBrain AI)
Usa tecnología de síntesis de voz y video para crear avatares hiperrealistas.
Una persona se graba en vida y su avatar puede “vivir” después de su muerte, disponible para hablar con sus descendientes.
3. Project December
Desarrollado con un modelo de lenguaje tipo GPT, este proyecto permite subir textos de alguien fallecido y conversar con una recreación conversacional muy precisa.
4. StoryFile
Plataforma que graba videos de respuestas a cientos de preguntas y los integra en un sistema interactivo. Fue usada para crear un avatar de William Shatner, el actor de Star Trek, para que “hable” con generaciones futuras.
¿Cómo funciona técnicamente?
- Recolectan datos textuales y de voz del fallecido
- WhatsApps, emails, videos, audios de cumpleaños, publicaciones en redes
- Se organiza y etiqueta el material: emociones, contexto, palabras clave
- Se entrena un modelo de lenguaje personalizado
- Utilizan redes neuronales avanzadas (como GPT, BERT o similares)
- El modelo empieza a predecir cómo hablaría esa persona ante ciertas preguntas
- Se conecta a una interfaz conversacional
- Chat tipo WhatsApp
- O incluso, video generativo con voz clonada y rostro animado
- El usuario interactúa y el griefbot responde como “ella” o “él” lo haría
¿Ayudan o hacen daño? El debate psicológico
Aquí es donde se pone delicado.
Los griefbots pueden tener efectos muy distintos dependiendo del contexto emocional de quien los use.
Posibles beneficios:
- Alivio emocional inmediato: especialmente en duelos recientes
- Conexión simbólica: como hablarle al retrato, pero con respuestas
- Reconstrucción de recuerdos: ayuda a procesar cosas no dichas en vida
- Acompañamiento en fechas importantes: cumpleaños, aniversarios
Riesgos psicológicos:
- Negación del duelo: puede reforzar la fantasía de que la persona no ha muerto
- Dependencia emocional del griefbot
- Confusión de identidad y límites de realidad
- Prolongación del dolor: cuando se convierte en una rutina diaria
Según un estudio de la Universidad de Cambridge (2024), el uso prolongado de griefbots puede alterar el proceso de duelo, especialmente en personas con duelos no resueltos o trastornos depresivos.
¿Y la ética?
Las preguntas morales no son pocas:
❓ ¿Es ético crear un avatar sin consentimiento del fallecido?
Si no lo pidió, ¿estamos violando su identidad?
❓ ¿Quién es responsable si el griefbot dice algo ofensivo o dañino?
¿La empresa? ¿El familiar que lo creó?
❓ ¿Pueden los griefbots usarse con fines comerciales o políticos?
Imagina una figura pública “resucitada” para emitir opiniones que nunca dijo en vida.
❓ ¿Qué pasa con los derechos de voz e imagen después de la muerte?
¿Debe regularse legalmente?
En Corea del Sur ya se discute una ley de postvida digital. Y la UE considera legislar la clonación de identidad por IA como una extensión de los derechos humanos.
¿Por qué la gente los usa?
La respuesta es simple:
Porque el dolor de perder a alguien a veces es más fuerte que la razón.
Y si hay una forma de “volver a escuchar su voz”, lo haremos.
En culturas donde el duelo no se acompaña, donde la gente no va a terapia, donde no se habla de la muerte…
el griefbot aparece como consuelo.
¿Y si se usaran con acompañamiento terapéutico?
Psicólogos como Dr. Joshua Barocas, de la Universidad de Colorado, sugieren que los griefbots podrían tener un uso terapéutico supervisado.
Por ejemplo:
- Ayudar a niños pequeños a procesar la pérdida
- Dejar mensajes para futuras generaciones
- Resolver conversaciones inconclusas simbólicamente
La clave es el contexto.
Un griefbot no es una herramienta mágica. Pero bien usada, puede ser un puente.
El futuro de los fallecidos digitales
- Redes sociales que activan griefbots en aniversarios
- Deepfakes de personas fallecidas que dan conferencias
- Museos con guías históricos recreados en IA
- Servidores con backups de vida para “visitar” a alguien que ya no está
Sí, esto suena a Black Mirror.
Pero ya no es ciencia ficción. Está ocurriendo ahora.
Conclusión
Los griefbots no son buenos ni malos.
Son una herramienta poderosa.
Y como toda herramienta, su impacto depende de cómo, cuándo y por qué se usa.
Pueden dar consuelo.
O pueden abrir heridas.
Pueden ayudar a recordar.
O pueden impedir soltar.
La responsabilidad está en nosotros.
Yo soy José.
Y creo que la inteligencia artificial no solo debe ayudarnos a vivir mejor.
También debe enseñarnos cómo soltar con amor.
En Inteligente Artificial, no solo te hablo de tecnología.
Te hablo de lo que realmente importa:
Cómo la usamos.
Qué hacemos con ella.
Y cómo nos transforma.
Contáctame si quieres implementar IA en tu vida o tu proyecto, sin perder tu humanidad.