Semanas antes de su anuncio, el modelo ya se había descubierto. No por un hacker ni por un actor malicioso. Estaba en una base de datos de acceso público. Claude Mythos Preview, el sistema que Anthropic ha presentado como el detector de vulnerabilidades más avanzado del mundo, fue expuesto por un descuido elemental de seguridad. Toda una ironía.
A principios de febrero, el mercado recibía un primer aviso. El sector de la ciberseguridad llevaba meses aguantando una presión menor que la que había hundido al resto del software empresarial con la irrupción de los últimos modelos de IA. Mientras las cotizaciones de los proveedores de software empresarial caían en promedio un 24% en seis meses, el principal índice bursátil de ciberseguridad aguantaba con una caída del 11%. Los inversores se habían instalado en una idea cómoda: proteger sistemas no es lo mismo que construirlos. Hasta que Anthropic presentó Claude Code Security hace pocas semanas, y ese consenso se derrumbó. CrowdStrike perdió un 5% en un día; Okta, un 6,5%; Cloudflare, un 9%.
Claude Code Security leía código como lo haría un investigador humano, detectaba problemas antes de que el producto llegara a los usuarios y sugería cómo resolverlos. Seguridad en origen, no en defensa. La reacción del mercado fue inmediata, pero lo relevante no era la caída puntual, sino la pregunta que dejaba abierta: si la IA empieza a hacer esto bien, ¿qué será lo siguiente?
Ahora los acontecimientos se precipitan. En una vuelta de tuerca, Anthropic ha presentado Mythos Preview, el modelo que Anthropic ha decidido no lanzar de forma abierta. No es una herramienta de desarrollo con funciones de seguridad añadidas. En pocas semanas de uso controlado, identificó miles de vulnerabilidades zero-day en todos los sistemas operativos y navegadores principales: un fallo que llevaba 27 años sin ser detectado en OpenBSD, otro de 16 años en FFmpeg, ambos ignorados por millones de ejecuciones de herramientas automatizadas. Eso no es una mejora incremental. Es lo que ocurre cuando un modelo deja de buscar patrones conocidos y empieza a razonar sobre el código como lo haría un experto humano, pero sin sus límites de atención ni de tiempo.
Por esa razón, Anthropic ha decidido no lanzarlo al mercado, o mejor dicho, hacerlo de forma controlada: a través de una coalición de más de 40 organizaciones que incluye a AWS, Apple, Cisco, CrowdStrike, Google, JPMorgan Chase, Microsoft, NVIDIA y Palo Alto Networks, con acceso restringido y supervisado. A esta iniciativa la ha bautizado como Project Glasswing. Es la carrera entre quién parchea primero y quién explota después. La idea es dar ventaja a los primeros, que lleguen antes. Incluso cuando en esta alianza se encuentren competidores potenciales.
El argumento es que el modelo es demasiado peligroso como para que llegue a manos equivocadas, y esa es precisamente la razón para dar ventaja a esa coalición de empresas. Anthropic no está lanzando un producto. Está declarando una urgencia. “No hemos entrenado a Mythos específicamente para ser bueno en ciberseguridad”, explicó Dario Amodei en el vídeo de lanzamiento. “Lo entrenamos para ser bueno con el código. La capacidad en ciberseguridad es un efecto secundario”. Lo que el CEO describe como efecto secundario es lo que mantiene despiertos a los equipos de seguridad de media industria.
La preocupación ya no se queda en el sector. A principios de esta semana, el secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, reunieron a varios de los mayores bancos para abordar el riesgo cibernético que plantea Mythos.
Recientemente, Thomas Friedman publicaba un artículo en The New York Times con una advertencia clara: Anthropic’s Restraint Is a Terrifying Warning Sign. En él cuenta que la decisión de anunciar el proyecto Glasswing no fue tomada de forma aislada, sino que fue un movimiento coordinado con la Administración Trump, lo que explica el lenguaje de seguridad nacional que impregna la comunicación oficial. En algunos análisis ya circula la comparación con la no proliferación nuclear. Que esa referencia haya entrado en la conversación indica el nivel en el que se está enmarcando el debate fuera del sector.
Pero hay razones para ser escépticos. Como ha señalado Gary Marcus, hasta cierto punto da la sensación de que estamos siendo arrastrados a una narrativa exagerada: el entorno de pruebas (sandboxing) demuestra que la capacidad existe y obliga a poner en orden lo técnico y lo regulatorio, pero no justifica la idea de una amenaza inmediata en los términos en los que se ha presentado.
El modelo todavía muestra problemas de fiabilidad; detectar vulnerabilidades no equivale a poder explotarlas, y no está claro que el impacto a corto plazo altere el equilibrio actual entre atacantes y defensores. En conjunto, estas limitaciones sugieren que, aunque la capacidad es real, su impacto sigue siendo incierto.
Sin embargo, este escenario no es solo teórico. La colaboración de competidores directos dentro de Glasswing sugiere que la amenaza se está tomando en serio dentro del propio sector. Esto no confirma que estemos ante un cambio estructural a corto plazo, pero sí indica que los actores con más información están actuando como si lo fuera.
De momento, la bolsa ha reaccionado con caídas ante el anuncio. Pero la señal más importante ahora es más técnica: la velocidad a la que se parchean las vulnerabilidades que Mythos Preview ya ha identificado. No es una cuestión de capacidad, sino de tiempo.
Si esa velocidad es tan alta como Anthropic afirma, lo veremos en una oleada de parches. El sector habrá cambiado. Si no, quedará como el anuncio más elaborado de lo que va de década. Por ahora, lo único verificable es que el modelo capaz de detectar décadas de errores ajenos llegó al mundo por un error propio. El resto lo iremos descubriendo.