Claude Mythos: por qué la inteligencia artificial acaba de cambiar las reglas de la seguridad mundial
30.04.2026
MONTEVIDEO (Uypress/Marcela Mercapidez*) - Mientras el mundo todavía intentaba reordenar el mapa geopolítico con la situación en el estrecho de Ormuz, apareció otro cisne negro que cambia las reglas del juego.
El 7 de abril, Anthropic -una de las empresas que lideran la carrea en inteligencia artificial- anunció Claude Mythos, un modelo de razonamiento general, pero que resultó con una capacidad tan disruptiva para encontrar fallas de seguridad que la compañía decidió no liberarlo. Es la primera vez que un laboratorio de IA desarrolla un producto funcional y opta por no publicarlo por el riesgo que podría generar.
Lo que hace a Mythos excepcional no es un diseño orientado a ciberataques, sino su capacidad de razonamiento lógico y escritura de código. Sometido a pruebas de rendimiento estándar, el modelo alcanzó niveles de eficacia asombrosamente superiores a los modelos anteriores.
En las pruebas de rendimiento estándar (como el benchmark SWE-bench Verified), Mythos alcanzó un 93,9% de eficacia, dejando muy atrás a los modelos líderes anteriores.[1]
Según las declaraciones de Anthropic, cuando este potencial se aplicó a entornos reales, los resultados fueron disruptivos. En apenas dos semanas de trabajo autónomo, el modelo identificó vulnerabilidades críticas -incluidos errores que llevaban años sin ser detectados- en gran parte de la infraestructura digital global. Uno de los investigadores incluso afirmó que encontró más fallas en ese período que en toda su carrera.
Hablamos de errores que llevaban décadas ocultos: una falla de 27 años en OpenBSD, una de 17 años en FreeBSD y otra de 16 años en FFmpeg, la base de casi todo el procesamiento de video en internet.[2]
Inteligencia artificial: Autonomía, imprevisibilidad y nuevos riesgos
El riesgo de Claud Mythos está en su naturaleza dual. Las mismas capacidades que permiten corregir un error con precisión son las que pueden diseñar el exploit ideal para atacarlo. En el campo de la ciberseguridad, en manos de estados hostiles o del cibercrimen organizado, una herramienta así permitiría automatizar el hackeo a escala industrial, eliminando la necesidad de grandes equipos de especialistas humanos.
Otro elemento que introduce la inteligencia artificial avanzada es un nivel de complejidad distinto al que estábamos acostumbrados. Estos sistemas no son completamente determinísticos: no siempre responden igual ante los mismos estímulos y en algunos casos pueden tomar decisiones que no fueron explícitamente programadas.
No es que "tengan voluntad", sino que operan en un espacio probabilístico donde el comportamiento puede variar. En escenarios controlados, esto puede ser una ventaja. En contextos críticos -como la ciberseguridad-, introduce un nuevo tipo de riesgo. Cuando combinamos esta capacidad con la posibilidad de detectar y explotar vulnerabilidades a gran escala, el resultado es una amenaza que no encaja del todo en los modelos tradicionales de gestión de riesgos.
Proyecto Glasswing y los primeros impactos en ciberseguridad
Frente a este escenario, Anthropic impulsó una coalición con más de 40 organizaciones para identificar y corregir vulnerabilidades antes de que sean explotadas. El consorcio incluye las Big Tech (Google, Microsoft, Amazon, Apple y Nvidia) actores clave en ciberseguridad como Crowdstrike, Cisco y Palo Alto Networks, la fundación Linux representando al ecosistema open source y JPMorgan Chase al sector financiero.
Es una carrera contra el tiempo. Según la información divulgada, la mayoria de las vulnerabilidades halladas por Claude Mythos aún no han sido solucionadas. Si esos fallos se filtraran antes de ser corregidos, el impacto podría extenderse a sistemas operativos, navegadores y redes financieras a nivel global.
El impacto ya empieza a sentirse. El secretario del Tesoro de EE.UU y el presidente de la Reserva Federal, ya convocaron de forma urgente a los principales bancos para advertir sobre los riesgos. Anthropic también confirmó que está coordinando acciones con agencias gubernamentales para evaluar su impacto en materia de seguridad nacional.
A esto se suma una dimensión ética: hoy una empresa privada se convierte en custodio de algunas de las debilidades más sensibles del sistema digital global. Decide quién accede a esa información y bajo qué condiciones.
Para no perder la cautela, vale incorporar un disclaimer. Si bien Anthropic está abriendo el modelo a través de Glasswing -lo que aporta credibilidad a sus advertencias-, también se beneficia de la percepción de que su IA está por delante del resto. El laboratorio cubrirá inicialmente los primeros 100 millones de dólares asociados a su uso, pero luego prevé cobrar a los participantes del proyecto hasta cinco veces más que por su modelo anterior, Opus.
Una carrera que ya no es solo tecnológica
La inteligencia artificial dejó de ser únicamente una cuestión técnica para convertirse en un eje geopolítico. El desarrollo de modelos avanzados demanda inversiones multimillonarias, infraestructura especializada y recursos solo al alcance de potencias. Esto genera una dinámica de competencia -principalmente entre Estados Unidos y China- que empieza a parecerse más a una carrera estratégica que a una evolución tecnológica tradicional.
Algunos análisis ya comparan este escenario con la lógica de la no proliferación nuclear. La preocupación es si estamos entrando en una nueva carrera armamentista digital, donde quien logre desarrollar un "clon" de Mythos sin restricciones pueda afectar la infraestructura de sus adversarios a escala global.
En ese contexto, decisiones como la de Anthropic no solo tienen implicancias técnicas, sino también políticas. ¿Quién accede primero a estas capacidades? ¿Quién define sus límites? ¿Qué países o industrias quedan rezagados? Las respuestas a estas preguntas empiezan a configurar un nuevo mapa de poder.
El verdadero desafío: gobernar la inteligencia artificial, no frenar
Frente a este escenario, la discusión pública suele plantearse en términos binarios: avanzar o frenar. Pero ese enfoque es insuficiente. La inteligencia artificial no es una tecnología que pueda "pausarse" sin más. Su desarrollo es global, descentralizado y competitivo. Intentar detenerla no es realista.
El verdadero desafío es otro: gobernarla. Eso implica, en primer lugar, reconocer que la IA ya no es solo una herramienta, sino una infraestructura de poder. Y como tal, requiere marcos de decisión que integren tecnología, negocio, ética y regulación.
También implica cambiar la lógica de adopción. No se trata de incorporar inteligencia artificial porque es tendencia, sino de entender qué problemas resuelve, qué riesgos introduce y qué capacidades internas se necesitan para gestionarla.
Y, sobre todo, implica anticipación. Porque en este nuevo contexto, la diferencia no va a estar en quién adopte primero la tecnología, sino en quién logre entenderla -y controlarla- antes de que sus efectos se vuelvan inmanejables.
Claude Mythos es, en ese sentido, menos un caso aislado que un anticipo. Una señal de hacia dónde se está moviendo el tablero.
*Marcela Mercapidez, CEO de Sabyk
[1] https://www-cdn.anthropic.com/08ab9158070959f88f296514c21b7facce6f52bc.pdf
[2] https://red.anthropic.com/2026/mythos-preview/
UyPress - Agencia Uruguaya de Noticias