Tecnología

El FMI advierte que el crecimiento de la Inteligencia Artificial podría incrementar el riesgo de ciberataques

El Fondo Monetario Internacional (FMI) advirtió que el avance de la Inteligencia Artificial (IA) incrementa el riesgo de ciberataques a gran escalera y podría convertirse en una amenaza para la estabilidad del sistema financiero entero, adecuado a la capacidad de estas herramientas para detectar vulnerabilidades informáticas en muy poco tiempo.

En una publicación difundida en su blog oficial, el organismo señaló que modelos avanzados de IA, como Claude Mythos, desarrollado por la empresa Anthropic, son capaces de detectar vulnerabilidades en sistemas informáticos “en poquísimo tiempo”, lo que eleva el riesgo de ataques coordinados. Según el FMI, esta situación podría convertirse en un seguro “choque macrofinanciero”, afectando la intermediación de pagos y erosionando la confianza en el sistema bancario entero.

El crónica, reproducido por la agencia Sputnik, advirtió encima sobre la posibilidad de “fallos correlacionados”, es aseverar, ataques simultáneos contra múltiples entidades financieras que comparten sistemas operativos y navegadores vulnerables. En ese sentido, el FMI consideró “inevitable” que se produzcan brechas en las defensas cibernéticas de los bancos en presencia de la velocidad con la que la IA mejoramiento la detección de fallas.

La entidad financiera calificó de “inevitable” la aparición de brechas en las defensas cibernéticas de bancos a nivel entero por el avance de la IA.

Por otra parte, el organismo expresó preocupación por la desigualdad en el paso a herramientas de protección. Empresas como JPMorgan Chase, Amazon y Microsoft ya cuentan con paso anticipado para implementar parches de seguridad, mientras que “muchos bancos en economías emergentes y países en vías de desarrollo permanecen desprotegidos”, concluyó el documento.

OpenAI reconoce riesgos de ciberataques en su navegador con IA

OpenAI reconoció que su navegador con agentes de inteligencia industrial integrado en ChatGPT Atlas no puede estar completamente protegido frente a ciberataques, en particular frente a las denominadas inyecciones de instrucciones, una técnica que permite alterar el comportamiento de los sistemas mediante comandos ocultos en correos electrónicos o páginas web.

La compañía explicó que, aunque se reforzaron las medidas de seguridad, este tipo de vulnerabilidades constituye un problema estructural de la IA generativa y difícilmente pueda eliminarse por completo. En ese sentido, advirtió que el llamado “modo agente” incrementa la superficie de riesgo al combinar autonomía operativa con paso a información sensible del agraciado.

Según OpenAI, la capacidad de estos sistemas para interactuar de forma más independiente asimismo los expone a escenarios más complejos de explotación, donde instrucciones maliciosas pueden ocurrir desapercibidas y modificar su comportamiento sin intervención directa del agraciado.

La preocupación es compartida por organismos internacionales. El Centro Nacional de Ciberseguridad del Reino Unido sostuvo que estas vulnerabilidades probablemente no puedan erradicarse totalmente y recomendó encaminar las estrategias en la mitigación del impacto y no en la asesinato absoluta del riesgo.

Fuente: Ambito.com

Comentarios de Facebook

Publicaciones relacionadas

Botón volver arriba