​Mythos - el punto en que la inteligencia artificial deja de ser neutral

|


Alfredo barriga 2

En el mundo de la tecnología, las verdaderas disrupciones no siempre llegan con anuncios espectaculares. A veces aparecen en silencio, en forma de capacidades que obligan a replantear supuestos básicos. Eso es lo que hoy comienza a ocurrir con Mythos, un modelo de inteligencia artificial que ha generado inquietud en los círculos de ciberseguridad.



La razón es simple, pero profunda: Mythos no solo analiza sistemas, sino que puede encontrar sus debilidades y proponer cómo explotarlas. No se trata de una herramienta más eficiente, sino de un cambio de naturaleza. Durante años, la seguridad digital ha descansado en un equilibrio inestable entre quienes descubren fallas y quienes intentan corregirlas. Ese equilibrio podría romperse si la detección de vulnerabilidades escala a una velocidad muy superior a su solución. “Mythos” (de Anthropic) tiene una capacidad inédita: detecta vulnerabilidades críticas (zero-days), puede explotarlas automáticamente, y funciona a nivel cercano o superior a expertos humanos. En pruebas encontró fallas en todos los sistemas operativos importantes y ejecutó ataques complejos con alta efectividad. 


Antes, encontrar vulnerabilidades era difícil, y explotarlas aún más difícil, lo cual nos daba cierta seguridad. Pero una IA puede hacer ambas cosas rápidamente y a escala, y esto genera un problema brutal: el descubrimiento de fallas va más rápido que su reparación. La seguridad deja de ser “humanos vs. Hackers” y pasa a ser IA vs. IA. 


Que su propio desarrollador haya decidido no liberarlo públicamente es una señal que no conviene ignorar. No porque estemos frente a una amenaza inminente, sino porque estamos entrando en una zona distinta: aquella en la que la inteligencia artificial deja de ser solo productiva y comienza a tener efectos sistémicos.


El punto de fondo no es tecnológico, sino estructural. Nuestras economías, nuestras instituciones e incluso nuestra vida cotidiana dependen de sistemas digitales que asumimos razonablemente seguros. Pero esa seguridad nunca fue absoluta; era el resultado de límites prácticos. Límites de tiempo, de conocimiento, de escala. La inteligencia artificial está empezando a remover esos límites. 


En ese nuevo escenario, la ciberseguridad deja de ser una tarea humana asistida por herramientas, para transformarse en una dinámica entre sistemas automatizados. La pregunta ya no es solo si podemos proteger nuestras infraestructuras, sino si podemos hacerlo al mismo ritmo al que emergen nuevas vulnerabilidades.


Conviene, eso sí, evitar lecturas alarmistas. Mythos no es un “fin del mundo digital”. No es “Apocalipsis inmediato”. Es, más bien, un síntoma. Es una señal de hacia dónde va la IA. Un indicio de que la inteligencia artificial está cruzando una frontera: la de intervenir no solo en la eficiencia de los sistemas, sino en su estabilidad. No es una anomalía, sino un anticipo. 


Y ahí aparece el verdadero desafío. No basta con desarrollar más tecnología para contrarrestar la tecnología. Se requiere algo más complejo: reglas, gobernanza y, sobre todo, criterio sobre cuándo avanzar y cuándo contener.


Porque en este punto, la pregunta ya no es qué puede hacer la inteligencia artificial. Esa respuesta la estamos descubriendo demasiado rápido. La pregunta es otra: qué estamos dispuestos a permitir que haga.


Alfredo Barriga

Profesor UDP

Autor de “Presente Acelerado: la Sociedad de la Inteligencia Artificial y el urgente rediseño de lo humano”, an Amazon.com. 

europapress