Meta patentó una IA que podría recrear la actividad de usuarios fallecidos en Instagram y Facebook

febrero 19, 2026

Meta patentó una IA que podría recrear la actividad de usuarios fallecidos en Instagram y Facebook

Qué dice la patente y cuál es el estado actual

Según una patente vista por Business Insider, Meta registró un diseño para un sistema basado en un gran modelo de lenguaje capaz de “simular” la actividad de un usuario en redes sociales como Instagram y Facebook. El documento describe la generación automática de publicaciones, comentarios, mensajes de chat, notas de voz, “me gusta” y otras interacciones con la apariencia del titular original de la cuenta. La patente incluso contempla la posibilidad de crear llamadas de audio y vídeo que utilicen una personalidad reconstruida a partir de los datos del propio usuario.

El texto de la solicitud afirma que “el modelo de lenguaje puede utilizarse para simular al usuario cuando este está ausente del sistema de redes sociales, por ejemplo, cuando se toma un descanso prolongado o si ha fallecido”. Andrew Bosworth, director de tecnología de Meta, figura como autor principal del documento, que se presentó por primera vez en 2023. Un portavoz de Meta dijo a Business Insider que la compañía “no tiene planes de seguir adelante” con esta tecnología, según el mismo reporte.

Contexto: por qué importa y precedentes

La idea de que una máquina pueda asumir la voz digital de una persona fallecida toca varias tendencias y preocupaciones actuales: la acumulación masiva de datos personales en plataformas, la mejora de modelos de lenguaje y síntesis multimodal (voz y vídeo), y la demanda pública por gestionar el “legado digital”. Las grandes plataformas ya ofrecen opciones de conmemoración: Meta permite convertir cuentas en “conmemorativas” y designar un contacto de legado o pedir la eliminación permanente del perfil tras el fallecimiento.

Además, en los últimos años han surgido empresas y proyectos experimentales que ofrecen chatbots o archivos digitales que simulan conversaciones con personas muertas a partir de mensajes, fotos y otros datos. Ese mercado ha suscitado debates legales, éticos y psicológicos sobre consentimiento, autenticidad y el impacto en el duelo.

Análisis técnico y comentarios para profesionales

Desde el punto de vista técnico, recrear de forma creíble a una persona con un gran modelo de lenguaje requeriría datos personales extensos: publicaciones históricas, mensajes privados, registros de voz, vídeos y metadatos sobre estilo y relaciones. Los retos concretos incluyen:

  • Calidad y sesgo de los datos: si el historial es parcial o sesgado, la simulación reflejará esas distorsiones.
  • Alucinaciones del modelo: los modelos de lenguaje pueden generar afirmaciones falsas; sin controles, la IA podría inventar experiencias o recuerdos que la persona nunca tuvo.
  • Sintetización multimodal segura: recrear voz y vídeo plantea riesgos de deepfake y exigirá técnicas robustas de verificación y limitación de uso.
  • Privacidad y escalabilidad: entrenar o afinar modelos con datos personales a escala choca con obligaciones regulatorias y con el riesgo de exposición accidental de información sensible.

“El modelo de lenguaje puede utilizarse para simular al usuario cuando este está ausente del sistema de redes sociales, por ejemplo, cuando se toma un descanso prolongado o si ha fallecido.”

Para ingenieros y responsables de producto, las mitigaciones técnicas aconsejables incluyen sistemas de generación con recuperación de evidencias (RAG) que anclen las respuestas en objetos concretos del historial del usuario, límites explícitos en la generación (por ejemplo, evitar fabricaciones sobre eventos personales), y trazabilidad completa (logs y metadatos) de cuándo y cómo se generó cada interacción automática.

Riesgos, implicaciones legales y éticas

La propuesta plantea varios riesgos reconocidos por juristas, sociólogos y expertos en IA:

  • Consentimiento: ¿puede alguien autorizar el uso de sus datos para simulaciones post-mortem? ¿Cómo se demuestra y registra ese consentimiento?
  • Identidad y suplantación: una IA convincente podría facilitar fraudes, difamación o manipulación de terceros que interactúan creyendo hablar con la persona real.
  • Impacto en el duelo: la disponibilidad de “conversaciones” continuas con una versión simulada del fallecido puede interferir en procesos psicológicos de aceptación y cierre emocional.
  • Protección de datos: marcos como el Reglamento General de Protección de Datos (GDPR) de la UE y leyes de privacidad en otros países exigen bases legales claras para procesar datos personales sensibles y ofrecen derechos como la supresión o limitación.
  • Responsabilidad y gobernanza: ¿quién es responsable por daños causados por la simulación—la empresa que la opera, los desarrolladores del modelo o los administradores de la plataforma?

Recomendaciones prácticas para distintos actores

Usuarios

  • Revisar y descargar periódicamente una copia de tus datos de redes sociales.
  • Designar un contacto de legado y conocer las políticas de la plataforma sobre cuentas conmemorativas y eliminación.
  • Expresar por escrito tus preferencias sobre el uso de tus datos tras tu fallecimiento (por ejemplo, a través de voluntades digitales).

Equipos de producto e ingeniería

  • Adoptar principios de diseño por defecto que requieran consentimiento explícito y revocable para cualquier simulación post-mortem.
  • Implementar transparencia en la interfaz: cualquier contenido generado por IA debe llevar una marca visible que lo identifique como tal.
  • Priorizar mecanismos de control humano, límites temporales y opciones para borrar o desactivar la simulación.
  • Realizar evaluaciones de impacto ético y de protección de datos antes de prototipar o desplegar sistemas de este tipo.

Reguladores y legisladores

  • Actualizar la normativa de datos personales para contemplar expresamente el tratamiento post-mortem y las tecnologías de simulación.
  • Establecer obligaciones de transparencia, auditoría externa y sanciones proporcionales para usos abusivos.

Casos comparables y lecciones aprendidas

Si bien Meta es la compañía detrás de las plataformas con mayor volumen de perfiles, no es la única organización en explorar el terreno del legado digital asistido por IA. En los últimos años surgieron startups y proyectos que ofrecieron chatbots o archivos digitales que permiten “conversar” con versiones construidas a partir de mensajes y fotos. Esos experimentos han sido fuente de controversia pública y académica, subrayando la necesidad de marcos claros antes de convertir prototipos en productos a gran escala.

La lección recurrente es que la tecnología por sí sola no resuelve las cuestiones sociales y legales: la adopción responsable requiere transparencia, opt-in informado y salvaguardias que protejan tanto al fallecido —su memoria y su dignidad— como a quienes interactúan con la simulación.

Conclusión

La patente de Meta describe una capacidad técnica plausible: usar modelos de lenguaje y síntesis multimodal para recrear la actividad de personas ausentes o fallecidas en redes sociales. Sin embargo, el avance desde una solicitud de patente hasta un producto desplegable atraviesa barreras técnicas, legales y éticas significativas. Mientras las empresas prueban estos límites, conviene que usuarios, profesionales y reguladores empujen por reglas claras: consentimiento previo, transparencia en las interacciones generadas por IA, controles humanos y vías para revocar o eliminar simulaciones. Sin tales garantías, los beneficios potenciales —preservar recuerdos o facilitar labores administrativas tras un fallecimiento— corren el riesgo de quedar eclipsados por daños a la privacidad, fraudes y afectaciones al duelo.

Source: www.20minutos.es