ASIC advierte a las firmas financieras sobre los riesgos de ciberataques con IA

La Comisión Australiana de Valores e Inversiones (ASIC) advirtió a las firmas financieras que fortalezcan sus defensas cibernéticas, señalando que modelos avanzados de IA como Mythos, de Anthropic, exponen fallos de software, según Reuters. La comisionada de la ASIC, Simone Constant, dijo que las empresas deberían actuar antes de que la amenaza se vuelva más clara y centrarse en medidas básicas de resiliencia cibernética.

Contexto regulatorio

La advertencia llegó un mes después de que la Autoridad Australiana de Regulación Prudencial publicara su propia alerta sobre prácticas de seguridad que luchan por ponerse al día con la IA. Una investigación separada del Cambridge Centre for Alternative Finance encontró que solo 20% de los reguladores habían adoptado IA avanzada y que los supervisores van rezagados frente a las firmas financieras al rastrear daños emergentes.

Capacidades del exploit de Mythos

La vista previa de Mythos, de Anthropologic, va más allá de identificar vulnerabilidades: puede escribir exploits funcionales para fallos de software. El modelo encontró y explotó de forma independiente un bug de 27 años en OpenBSD, un sistema operativo de código abierto construido para la seguridad. Mythos también utilizó CVE-2026-4747 para lograr ejecución remota de código con privilegios de root a través de Network File System (NFS) en FreeBSD, otro sistema operativo de código abierto.

Anthropic afirmó que el modelo encontró miles de vulnerabilidades de alta criticidad en sistemas operativos importantes y navegadores web, muchas de las cuales no habían sido detectadas durante años o décadas. El acceso a Mythos Preview está limitado, y Project Glasswing reúne a Amazon Web Services, los equipos de seguridad de Apple, Google, Microsoft, NVIDIA y otros para asegurar software ampliamente utilizado antes de que herramientas similares se difundan.

Impacto en la economía de la ciberseguridad

La capacidad altera significativamente el costo y el cronograma para lanzar ciberataques. Fallos que antes se trataban como de bajo riesgo ahora generan mayor preocupación porque Mythos Preview puede construir exploits en horas, un trabajo que los probadores de penetración expertos dijeron que habría tomado semanas usando métodos tradicionales. Este cambio significa que las firmas financieras y otras organizaciones podrían necesitar ciclos de parcheo más rápidos y defensas más automatizadas.

Las pruebas con otros modelos de IA de frontera sugieren que las habilidades cibernéticas avanzadas acompañan el progreso más amplio de la IA, lo que indica que la amenaza probablemente crecerá.

FAQ

¿Qué es Mythos y por qué es una preocupación para las firmas financieras?

Mythos es el modelo avanzado de IA de Anthropic que puede identificar vulnerabilidades de software y escribir exploits funcionales. La ASIC advirtió a las firmas financieras porque Mythos puede exponer fallos de seguridad en sistemas ampliamente utilizados, reduciendo el tiempo y el costo necesarios para lanzar ciberataques hasta el precio de una clave de API. El modelo ha demostrado la capacidad de encontrar miles de vulnerabilidades de alta criticidad en sistemas operativos y navegadores web.

¿Qué tan rápido puede Mythos generar exploits en comparación con métodos tradicionales?

Mythos puede construir exploits en horas, mientras que los probadores de penetración expertos dijeron que el mismo trabajo habría tomado semanas usando métodos tradicionales. Esta aceleración cambia fundamentalmente la economía de la ciberseguridad y la urgencia de parchear vulnerabilidades.

¿Qué están haciendo los reguladores para abordar riesgos cibernéticos impulsados por IA?

La ASIC recomendó a las firmas financieras fortalecer sus defensas cibernéticas y centrarse en medidas básicas de resiliencia cibernética antes de que las amenazas se vuelvan más claras. La Autoridad Australiana de Regulación Prudencial emitió una advertencia similar sobre prácticas de seguridad que van rezagadas frente al desarrollo de la IA. Project Glasswing, que involucra a importantes compañías tecnológicas y de la nube, trabaja para asegurar software ampliamente utilizado antes de que herramientas similares de generación de exploits se vuelvan generalizadas.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Los costos de los datos de entrenamiento de robots caen un 65% desde 2024, pasando de 340 a 118 dólares por hora

Según Cointelegraph, los costos de los datos de entrenamiento para robots han disminuido un 65% desde 2024, pasando de 340 dólares por hora a 118 dólares por hora a partir de 2026.

GateNewsHace12m

China Mobile anuncia una alianza de ecosistema de aplicación de tokens con 8 socios el 8 de mayo

De acuerdo con PANews, el 8 de mayo, China Mobile anunció el establecimiento de una Alianza de Ecosistema de Aplicaciones de Token con 8 socios, incluidos Alibaba Cloud, Volcano Engine y Huawei Cloud. La alianza aprovecha la plataforma de agregación de modelo MoMA para construir una pasarela de servicio unificada para la IA doméstica m

GateNewsHace26m

Anthropic publica autoencoders de lenguaje natural para descifrar el razonamiento de los modelos de IA y abre el código fuente

Anthropic recientemente lanzó Natural Language Autoencoders (NLA), una herramienta que traduce activaciones internas del modelo a texto legible para humanos, con código y pesos del modelo open-source en GitHub. A diferencia de las herramientas existentes como los Sparse Autoencoders que generan características oscuras, NLA genera directamente

GateNewsHace27m

China publica un plan de acción de IA y energía con objetivos para 2027 y 2030 el 8 de mayo

Según PANews, el 8 de mayo, la Comisión Nacional de Desarrollo y Reforma de China, la Administración Nacional de Energía, el Ministerio de Industria y Tecnología de la Información y la Administración Nacional de Datos publicaron conjuntamente una acción

GateNewsHace56m

Tres organismos de China publican una guía sobre agentes de IA con 19 escenarios típicos de aplicación

Según PANews, la Administración del Ciberespacio de China, la Comisión Nacional de Desarrollo y Reforma y el Ministerio de Industria y Tecnología de la Información publicaron conjuntamente hoy (8 de mayo) una guía sobre agentes de IA. El documento define un agente de IA como un sistema de inteligencia artificial con autonomía

GateNewshace1h

FMI: La IA plantea una amenaza potencial para la estabilidad financiera

Informe del FMI sobre los riesgos de la IA y la estabilidad financiera El Fondo Monetario Internacional publicó un informe el 7 de mayo en el que afirma que la inteligencia artificial (IA) está cambiando la forma en que los sistemas financieros responden a las vulnerabilidades cibernéticas y a los incidentes de seguridad, al tiempo que amplifica los riesgos de ciberseguridad y

CryptoFrontierhace1h
Comentar
0/400
ReviewMonsterDoesn'tSleepvip
· hace7h
Los modelos como Mythos pueden ser utilizados como herramientas de ataque, y las firewalls tradicionales probablemente no puedan resistirlo; hay que usar IA contra IA.
Ver originalesResponder0
PocketValidatorvip
· hace7h
El Comisionado tiene razón, cuando ocurra un problema será demasiado tarde. Pero el problema es, ¿dónde tienen presupuesto las instituciones pequeñas y medianas para realizar este nivel de actualización de seguridad? La regulación debería brindar un apoyo práctico.
Ver originalesResponder0
雾里看TVLvip
· hace7h
ASIC esta vez emitió una advertencia bastante oportuna, la velocidad con la que la IA encuentra vulnerabilidades es mucho mayor que la de los humanos, las instituciones financieras realmente necesitan actualizar sus defensas
Ver originalesResponder0