Imagina por un segundo que una inteligencia artificial supera a los mejores ingenieros humanos en encontrar fallos ocultos en el software que sostiene el mundo. No en teoría. No en un laboratorio. En sistemas reales: sistemas operativos que usas todos los días, navegadores en los que navegas ahora mismo, kernels que llevan décadas sin que nadie notara esa grieta diminuta.
Eso es exactamente lo que ha pasado con Claude Mythos Preview, el nuevo modelo frontier de Anthropic. Y la reacción de la empresa no fue lanzar la versión beta con fanfarria. Fue todo lo contrario: “Es demasiado poderoso. No lo vamos a liberar al público”.
Es la primera vez en la historia reciente de la IA que una compañía decide guardar su creación más avanzada por miedo a lo que pueda desatar. Y eso, amigos, merece una pausa para reflexionar.
¿Qué hace Mythos tan especial?
Anthropic lo describe como un “salto cualitativo” y un nuevo nivel por encima de Claude Opus 4.6 (hasta ahora su modelo insignia). El nombre no es casual: “Mythos” evoca el tejido profundo que conecta ideas y conocimiento, como las grandes mitologías que explican el mundo. Rompe con la nomenclatura tradicional de Claude (Haiku, Sonnet, Opus) y marca un nuevo tier (interno también llamado Capybara).
Algunos números que impresionan (del System Card oficial publicado el 7 de abril de 2026):
SWE-bench Verified (programación real de código): 93.9 % frente al 80.8 % de Opus 4.6.
USAMO 2026 (matemáticas de olimpiada): 97.6 % frente al 42.3 % anterior. Un salto de más del doble.
CyberGym (ciberseguridad): 83 % frente al 67 % de Opus.
Cybench: 100 % en un subconjunto de desafíos.
Pero el dato que realmente asusta (y fascina) es su capacidad autónoma para descubrir y explotar zero-days: vulnerabilidades desconocidas hasta ese momento. Mythos ha encontrado miles de fallos de alta severidad en todos los sistemas operativos mayores y navegadores principales. Algunos ejemplos reales reportados:
Un bug de 27 años en OpenBSD que permitía colapsos remotos.
Una vulnerabilidad de 16 años en FFmpeg que ningún test automático había detectado.
Cadenas de exploits en el kernel de Linux que permiten escalar privilegios de usuario normal a root.
Ingenieros sin entrenamiento formal en seguridad pidieron al modelo que buscara fallos durante la noche… y obtuvieron exploits completos que un pentester humano tardaría semanas en armar.
Entonces, ¿por qué no lo lanzan?
Porque Mythos no solo encuentra vulnerabilidades. Puede crear exploits funcionales de forma autónoma. En un mundo donde los ciberataques ya son una amenaza diaria, entregar esta herramienta a cualquiera sería como regalarle a un ladrón las llaves maestras de todas las casas del vecindario.
Por eso Anthropic lanzó Project Glasswing: una iniciativa de colaboración con más de 40 organizaciones críticas (Apple, Microsoft, Google, Amazon, NVIDIA, Cisco, CrowdStrike, JPMorganChase, Linux Foundation y otras). Les dan acceso controlado al modelo + hasta 100 millones de dólares en créditos de uso y 4 millones en donaciones directas a proyectos de código abierto. El objetivo es usar Mythos defensivamente: encontrar los fallos antes de que los malos los usen.
Es una de las pocas veces que vemos a la industria unirse de verdad antes de que ocurra el desastre, en lugar de lamentarlo después.
La reflexión que nadie quiere hacer (pero hay que hacer)
Mythos nos pone frente al espejo de la era de la IA:
El poder dual es inevitable. La misma capacidad que puede salvarnos de ciberataques masivos podría, en manos equivocadas, generarlos a escala nunca vista.
La velocidad supera nuestra capacidad de regulación. Mientras discutimos ética y alineación, los modelos ya están encontrando fallos que humanos tardaron décadas en pasar por alto.
La alineación importa, pero la capacidad lo cambia todo. Anthropic dice que Mythos es, paradójicamente, su modelo “mejor alineado hasta la fecha”. Aun así, su potencia hace que cualquier desliz sea mucho más peligroso.
Es como haber construido un superhéroe que puede curar enfermedades… pero también podría, accidentalmente, crear una nueva plaga. ¿Lo dejamos suelto o lo entrenamos primero para que solo cure?
Mythos no es solo otro modelo más potente. Es la primera señal clara de que estamos entrando en una fase donde la IA ya no es una herramienta: es un actor que cambia las reglas del juego de la seguridad global.
Y la pregunta que queda flotando es incómoda pero necesaria:
¿Estamos listos para convivir con inteligencias que ven fallos en nuestro mundo que nosotros ni siquiera imaginamos?
O, dicho de otra forma: ¿la próxima gran amenaza cibernética no vendrá de un hacker en un sótano… sino de un modelo que decidimos no liberar?
El futuro ya no es ciencia ficción. Está en un servidor de Anthropic, esperando a que la humanidad decida cómo usarlo.
¿Qué opinas tú? ¿Deberíamos priorizar siempre la defensa, aunque eso signifique retrasar el progreso abierto? ¿O crees que el riesgo vale la pena por la velocidad del avance?
Estoy atento a tus reflexiones. El debate apenas comienza.