Claude Mythos: por qué el acceso restringido alarma al BCE y qué supone para la ciberseguridad europea

mayo 5, 2026

Claude Mythos: por qué el acceso restringido alarma al BCE y qué supone para la ciberseguridad europea

Qué es Claude Mythos y quién lo está probando

Claude Mythos es la denominación del modelo avanzado de inteligencia artificial desarrollado por Anthropic que, en su versión Preview, ha mostrado capacidades para analizar código y detectar vulnerabilidades de tipo «zero-day». Anthropic ha limitado el acceso a un grupo muy reducido de socios mediante lo que se ha conocido internamente como Project Glasswing. Entre las empresas autorizadas están gigantes tecnológicos y financieras con sede en Estados Unidos —Amazon, Apple, Microsoft, Alphabet— y entidades como JP Morgan, según las informaciones publicadas.

La estrategia declarada de Anthropic es permitir que actores con capacidad técnica prueben el modelo para localizar fallos antes de que terceros maliciosos lo hagan. No obstante, esa decisión de acceso selectivo ha convertido a Mythos en un activo geopolítico y en un foco de preocupación para las instituciones que gestionan el riesgo sistémico, en particular el Banco Central Europeo (BCE) y las grandes entidades financieras de la Eurozona.

Por qué preocupa: el problema de los «zero-day» automatizados

Un zero-day es una vulnerabilidad desconocida para los desarrolladores y para la mayoría de defensores, que puede explotarse sin parches disponibles. Tradicionalmente, hallar y explotar estas fallas exige especialistas muy cualificados y procesos largos de investigación. Según los análisis iniciales mencionados por medios y evaluadores externos, Mythos puede acelerar drásticamente ese proceso: detecta fallos y es capaz de generar código que explote dichas vulnerabilidades en escalas de tiempo mucho más cortas que las herramientas anteriores.

Medios y algunos evaluadores han descrito el potencial del modelo como extraordinario, incluso planteando analogías hiperbólicas —como calificativos usados en la cobertura internacional— sobre su capacidad de disrupción.

Para el sector bancario esto no es una abstracción. El BCE ha convocado a responsables de riesgos de los principales bancos de la Eurozona —incluidos Santander, BBVA, CaixaBank y Sabadell— para que detallen planes de contingencia ante la posible proliferación de explotaciones automáticas. El temor central es que, si el modelo o tecnologías similares caen en manos criminales o de actores estatales hostiles, puedan desencadenarse robos masivos de datos, fraudes a gran escala o disrupciones operativas que afecten la confianza en sistemas de pago y ahorro.

Contexto geopolítico y precedentes comparables

La concentración de capacidades cibernéticas avanzadas en pocos actores privados estadounidense ha tensado relaciones internacionales. La Casa Blanca y el Tesoro han mantenido reuniones con el sector bancario, y países ajenos a ese círculo de acceso han buscado evaluaciones propias: el AI Security Institute del Reino Unido ha comunicado que ha podido evaluar Mythos y ha confirmado su potencial para completar ataques que modelos anteriores no conseguían. Anthropic ha indicado además que planea ampliar el acceso a instituciones financieras británicas, mientras que muchas entidades europeas esperan un tratamiento similar.

Hay asimismo reportes sobre posibles accesos no autorizados a versiones del modelo. Si bien las compañías tecnológicas ya restringen herramientas dual-use (de uso civil y militar/maligno), la historia reciente muestra que siempre existe riesgo de fuga o replicación. En paralelo, otros desarrolladores como OpenAI trabajan en variantes “cyber” de sus modelos con acceso controlado, lo que sugiere que la carrera por capacidades de ciberseguridad automatizada se está acelerando.

Implicaciones operativas y recomendaciones para profesionales

Para los equipos de seguridad de la banca y de infraestructuras críticas, la llegada de modelos capaces de descubrir y explotar vulnerabilidades implica adaptar controles, procesos y gobernanza. A continuación, medidas prácticas y prioridades:

  • Evaluación de riesgo y escenarios: actualizar los análisis de riesgo para incluir ataques generados o acelerados por IA; diseñar escenarios de tabletop que contemplen explotaciones masivas de zero-day.
  • Red team y pruebas continuas: incrementar la frecuencia y variedad de ejercicios de adversarial testing; usar pruebas internas de pentesting y bluel-teaming ante nuevas superficies de ataque.
  • Gestión de parches y reducción de superficie: priorizar parches por criticidad y exposición, reforzar inventario de activos, aplicar segmentation y microsegmentación en entornos productivos para limitar el alcance de un exploit.
  • Detección y respuesta: desplegar y afinar EDR/ XDR, mejorar telemetría y retención de logs, acelerar playbooks de respuesta automatizada y descargas forenses para reconstrucción de ataques alimentados por IA.
  • Control de accesos y cadena de suministro: revisar permisos de cuentas de servicio y APIs, endurecer autenticación multifactor, y elevar requisitos contractuales a proveedores que puedan integrar o desplegar herramientas con capacidades de descubrimiento de vulnerabilidades.
  • Colaboración e intercambio de inteligencia: participar activamente en ISACs/CSIRTs sectoriales, compartir y consumir indicadores de compromiso (IoCs) y tácticas, técnicas y procedimientos (TTPs) específicos relacionados con amenazas automatizadas.
  • Planificación financiera y operativa: contemplar medidas para proteger la liquidez y los depósitos en escenarios de fraude masivo o pérdida de confianza; preparar canales de comunicación pública y coordinación con autoridades supervisoras.

Riesgos sistémicos y opciones regulatorias

El caso muestra varios vectores de riesgo que trascienden la seguridad técnica: concentración de poder en el desarrollo de IA, asimetría de acceso entre países, y la dualidad entre herramientas de defensa y ofensa. Para mitigar riesgos sistémicos pueden considerarse medidas de política pública y regulación, entre ellas:

  • Mecanismos de acceso confiable: marcos que permitan a bancos y autoridades europeas evaluar modelos en entornos controlados sin depender exclusivamente de decisiones unilaterales de proveedores.
  • Obligaciones de divulgación responsable: exigir a las empresas que desarrollan este tipo de modelos protocolos robustos de prueba y divulgación responsable de vulnerabilidades descubiertas.
  • Certificación y auditoría independiente: impulsar auditorías técnicas por terceras partes y certificaciones de seguridad para modelos con capacidad de ciberanálisis.
  • Cooperación internacional: acuerdos bilaterales y multilaterales para compartir evaluaciones técnicas y normas de uso, además de mecanismos que reduzcan el riesgo de explotación por actores no autorizados.

En la Unión Europea, marcos legislativos y de ciberresiliencia existentes y en desarrollo (por ejemplo, normas sobre ciberseguridad y regulaciones específicas del sector financiero) ofrecen herramientas para exigir mayor diligencia y supervisión, pero exigirán actualización para abordar riesgos concretos de IA dual-use.

Conclusión

Claude Mythos ha encendido una alerta que combina técnica, financiera y geopolítica. Su capacidad para acelerar la identificación y explotación de zero-day transforma una tarea humana altamente especializada en una función que puede automatizarse y escalarse. La restricción de acceso a unas pocas empresas estadounidenses crea asimetrías y tensiones, mientras que el posible acceso no autorizado incrementa la urgencia de medidas defensivas.

Para los responsables de ciberseguridad y supervisión financiera la prioridad es clara: adaptar prácticas operativas, reforzar detección y respuesta, aumentar la cooperación sectorial y pedir marcos de gobernanza que permitan evaluar y, en su caso, controlar el uso de estas tecnologías. La prevención y la resiliencia serán determinantes para proteger sistemas críticos y la confianza pública en momentos en que la tecnología despliega nuevas capacidades duales.

Source: www.xataka.com