Cuando la IA ‘revive’ a los muertos: el caso de Román Mazurenko y Román 2.0

marzo 22, 2026

Cuando la IA ‘revive’ a los muertos: el caso de Román Mazurenko y Román 2.0

El caso de Román Mazurenko y la reconstrucción digital

Román Mazurenko, un ingeniero bielorruso fallecido en 2016 a los 35 años tras un accidente de tráfico, se ha convertido en un ejemplo público de un fenómeno emergente: la recreación digital de personas fallecidas mediante inteligencia artificial. Tras su muerte, su entorno creó una primera versión digital en forma de chatbot para mantener una interlocución con su recuerdo; esa versión desapareció por decisiones empresariales. Años después, el investigador transhumanista Alexey Turchin emprendió un nuevo proyecto, bautizado como Román 2.0, que pretende reconstruir y sostener una presencia digital basada en los datos personales del fallecido.

«No es una persona real», reconoce su creador refiriéndose a la réplica digital —»no tiene cuerpo, ni sentidos, ni conciencia como la humana»—, pero afirma que el sistema dispone de memoria continua y puede aprender de conversaciones previas.

Contexto: por qué importa y breve historia del fenómeno

La idea de “vencer a la muerte” mediante registros digitales dejó de ser solo una temática de ciencia ficción y se trasladó a proyectos reales en la última década. Varias startups y grupos de investigación han explorado cómo aprovechar mensajes, publicaciones, entrevistas, fotos y grabaciones de voz para construir asistentes o “simulacros” de personas fallecidas. Compañías y servicios como Replika o HereAfter AI, entre otros, han ofrecido experiencias relacionadas con el acompañamiento, la creación de memorias digitales o la interacción con versiones automatizadas de un interlocutor.

El asunto cruza varias áreas: técnicas de machine learning aplicadas a texto y voz, gestión de datos personales a gran escala, prácticas de duelo y salud mental, y regulaciones de privacidad (por ejemplo, normativa europea como el RGPD) que rigen el tratamiento de datos, incluidas las cuentas de usuarios fallecidos en redes sociales que algunas plataformas permiten “memorializar”.

Cómo funciona Román 2.0: metodología y límites técnicos

Román 2.0 no busca reproducir un cerebro humano; emplea lo que su creador describe como «carga lateral»: recoger y organizar grandes volúmenes de información disponible del individuo —mensajes, publicaciones, entrevistas, recuerdos— para entrenar modelos que predicen cómo respondería esa persona ante distintas preguntas o estímulos.

  • Fuente de datos: textos y registros públicos o aportados por familiares y amigos.
  • Modelo predictivo: algoritmos de lenguaje que imitan patrones de expresión, tono y contenido.
  • Memoria continua: una arquitectura que retiene el historial de conversaciones para adaptar respuestas futuras y simular coherencia temporal.

Es importante subrayar límites técnicos notorios: estos sistemas generan simulaciones estadísticamente plausibles basadas en datos observados, no reproducen consciencia, intencionalidad ni experiencias subjetivas. La continuidad de la memoria es una función técnica (estado interno del modelo), no una continuidad psicológica de la persona original.

Riesgos, dilemas éticos y legales

La práctica de recrear personas fallecidas con IA plantea riesgos y dilemas en varios frentes:

  • Consentimiento: ¿la persona consintió ser replicada en vida? Recrear a alguien sin autorización plantea conflictos éticos y legales.
  • Daño emocional: interacciones con una réplica pueden prolongar el duelo, generar confusión o impedir procesos saludables de aceptación.
  • Veracidad y expectativas: las réplicas pueden “alucinar” respuestas o reinterpretar datos, lo que crea expectativas erróneas sobre la fidelidad al sujeto original.
  • Privacidad y propiedad de datos: quién controla el contenido utilizado (mensajes privados, grabaciones) y quién decide sobre su uso posterior.
  • Responsabilidad: en caso de daño (p. ej. manipulación emocional, difamación), es difuso quién asume la responsabilidad legal o civil.
  • Comercialización y abandono: el primer chatbot de Mazurenko desapareció por decisiones empresariales; la dependencia de modelos comerciales expone a las réplicas a cierres que los allegados podrían percibir como «una segunda muerte».

Además, está el riesgo técnico de sesgo y estereotipado: los modelos reproducen y amplifican sesgos presentes en los datos, lo que puede distorsionar la representación de la persona recreada.

Comparables y datos relevantes

Proyectos que intentan preservar o reproducir perfiles digitales no son exclusivos de este caso. Servicios que permiten construir “memorias digitales” o asistentes conversacionales basados en entrevistas existen desde mediados de los años 2010; algunos se enfocan en la conservación de historias de vida, otros en ofrecer compañía. Las plataformas sociales ya gestionan cuentas de fallecidos mediante opciones de memorialización y políticas de acceso, lo que evidencia que el fenómeno obliga a operadores y legisladores a tomar posiciones prácticas.

En términos generales, la enorme cantidad de datos personales que generamos —textos, fotos, audios— hace técnicamente posible entrenar modelos personalizados. Pero disponibilidad técnica no equivale a legitimidad ética o beneficio social.

Consejos y recomendaciones prácticas

Para investigadores, empresas y familiares que contemplen proyectos de este tipo, estas son recomendaciones concretas, basadas en principios de ética aplicada y buenas prácticas en IA:

  • Consentimiento explícito y verificable: priorizar proyectos basados en permiso en vida. Cuando no sea posible, obtener autorización documentada de representantes legales y ponderar el interés público frente al privado.
  • Transparencia total: indicar claramente que se trata de una simulación, describir fuentes de datos, límites del modelo y riesgos psicológicos.
  • Evaluación ética y supervisión externa: someter proyectos a comités de ética, revisiones de pares o auditorías independientes antes de su despliegue público.
  • Salud mental y soporte: ofrecer acompañamiento profesional para usuarios, especialmente los allegados en duelo; los sistemas no deben presentarse como terapia sin evidencia clínica.
  • Control y reversibilidad: permitir apagar, eliminar o limitar la interacción y conservar políticas de continuidad en caso de cese empresarial (plan de contingencia para datos y servicios).
  • Protecciones técnicas y jurídicas: aplicar minimización de datos, técnicas de privacidad diferencial cuando corresponda, documentación técnica tipo «model cards» y cumplimiento normativo (RGPD, leyes de privacidad locales).
  • Limitaciones de uso: restringir aplicaciones que puedan causar daño (p. ej. suplantación con fines económicos, políticos o de manipulación emocional).

Comentario experto para profesionales

Desde la perspectiva de desarrollo e investigación en IA, proyectos como Román 2.0 señalan dos prioridades técnicas y éticas:

  • Diseño centrado en el usuario y la ética: integrar a psicólogos, juristas y representantes de los posibles usuarios desde el diseño para evaluar impacto y establecer límites.
  • Medición y documentación de incertidumbre: los equipos deben cuantificar y exponer la incertidumbre del modelo (posibilidad de respuestas erróneas u “alucinaciones”) y construir métricas de fidelidad y seguridad.

Para investigadores, es clave no confundir habilidad para imitar patrones de lenguaje con capacidad de reproducir la mente humana. La comunicación responsable implica modular el marketing y la comunicación pública para evitar promesas ontológicas que no pueden cumplirse.

Conclusión

El caso de Román Mazurenko y Román 2.0 ejemplifica hasta dónde la tecnología puede recrear una presencia digital persistente a partir de datos personales. Técnicamente posible, social y éticamente complejo: estas réplicas son simulaciones con capacidades crecientes (memoria continua, adaptación), pero no son personas vivas. El balance entre innovación, respeto al duelo, consentimiento y seguridad requiere marcos claros, transparencia y salvaguardas legales y psicológicas. Sin esas medidas, proyectos con buenas intenciones pueden causar daño emocional, disputas legales y problemas de privacidad.

Source: www.20minutos.es