Anthropic reporta un acceso indebido a su IA avanzada Mythos: ¿qué riesgos implica?

Anthropic reconoció la tolerancia de una investigación interna tras detectar un acceso no calificado a su maniquí renovador Mythos. En detalle, la aparejo – anunciada por la compañía casi dos semanas antes – despertó la las alertas en el mundo de la Inteligencia Artificial, luego de su propia desarrolladora lo calificara como un memorial sensible que puede tornarse catastrófico si cae en manos de actores maliciosos.
El incidente se produce en un contexto donde la empresa decidió restringir el despliegue original de Mythos a un liga escaso de unas 40 grandes tecnológicas, con el objetivo de que pudieran identificar y corregir fallas de ciberseguridad ayer de una eventual emancipación más amplia. «Mythos Preview ya detectó miles de vulnerabilidades de reincorporación reserva, incluyendo algunas en todos los principales sistemas operativos y navegadores web», ahondó Anthropic al momento de anunciar su nueva aparejo.
Anthropic alertó un acceso no calificado a su aparejo Mythos
De acuerdo con información publicada por Bloomberg, un liga acotado de usuarios logró ingresar al sistema a través de un entorno informático destinado a proveedores externos. Desde la compañía reconocieron el episodio: «Estamos investigando un crónica según el cual se produjo un acceso no calificado a Claude Mythos Preview a través de uno de nuestros entornos de proveedores externos», indicó un vocero en presencia de la AFP.
Las primeras evaluaciones apuntan a que el acceso se habría producido mediante distintos mecanismos, entre ellos el uso de credenciales habilitadas para empleados de empresas contratistas que colaboran en el avance de los modelos.
Anthropic trabaja con un número condicionado de proveedores externos que participan en distintas etapas de entrenamiento y moral de sus sistemas, lo que abre una superficie adicional de aventura en términos de seguridad.
Qué es Mythos y por qué provocó una alianza entre las principales empresas tecnológicas
La irrupción de la inteligencia químico ya dejó de ser una promesa para convertirse en un multiplicador estructural del presente. En ese contexto, una de las preguntas centrales es si el ecosistema tecnológico está preparado para absorber su impacto. Desde Anthropic, la respuesta es directa: no. Al menos, no frente a las capacidades que exhibe su nuevo maniquí, Claude Mythos.
La iniciativa que rebusca reanimar la seguridad del software crítico a escalera entero.
La compañía liderada por Dario Amodei decidió avanzar en una táctica preventiva y lanzó el Proyecto Glasswing, una iniciativa que rebusca reanimar la seguridad del software crítico a escalera entero. La osadía se apoya en el potencial de Claude Mythos Preview, un sistema que —según la propia firma— supera a casi todos los expertos humanos en la detección y explotación de vulnerabilidades.
“Dado el ritmo de avance de la IA, no pasará mucho tiempo antes de que estas capacidades se extiendan, posiblemente más allá de los actores comprometidos con su implementación segura. Las consecuencias —para la economía, la seguridad pública y la seguridad nacional— podrían ser graves”, advirtió la empresa.
En términos concretos, el planteo es simple: una aparejo de este nivel, en manos equivocadas, podría desestabilizar buena parte de la infraestructura digital entero. De hecho, el maniquí ya logró identificar fallas críticas en sistemas ampliamente utilizados, incluyendo:
Frente a este círculo, Anthropic optó por una respuesta colaborativa. El Proyecto Glasswing reúne a algunos de los principales actores del sector tecnológico y financiero, entre ellos Amazon Web Services, Apple, Microsoft, Google, NVIDIA y JPMorgan Chase, adicionalmente de organizaciones como la Linux Foundation.
El objetivo es claro: utilizar el maniquí en entornos controlados para detectar y mitigar vulnerabilidades ayer de que puedan ser explotadas en escenarios reales.
“La vista previa de Claude Mythos supone un salto especialmente grande”, sostuvo Amodei, quien adicionalmente aclaró que el rendimiento en ciberseguridad no fue el objetivo original del avance. “No lo hemos entrenado específicamente para que sea bueno en ciberseguridad. Lo entrenamos para que fuera bueno en programación, pero como consecuencia de ello, también lo es en ciberseguridad”. Y advirtió: “veremos modelos más potentes, tanto nuestros como de otras empresas. Por lo tanto, necesitamos un plan para responder a esto”.
El impacto potencial ya genera eco en toda la industria. Desde Microsoft, su CISO entero, Igor Tsyganskiy, señaló: “Al entrar en una fase en la que la ciberseguridad ya no depende exclusivamente de la capacidad humana, la oportunidad de utilizar la IA de forma responsable para mejorar la seguridad y reducir el riesgo a gran escala no tiene precedentes”.
Como parte de esta táctica, Anthropic amplió el acceso a más de 40 organizaciones que operan infraestructura crítica, con el objetivo de acelerar la identificación de riesgos en sistemas propios y de código rajado. Además, comprometió medios para ascender el efecto del plan:





