A ASIC alerta as empresas financeiras sobre os riscos cibernéticos da IA

A Comissão Australiana de Valores e Investimentos (ASIC) alertou as empresas financeiras para reforçarem as defesas cibernéticas, apontando que modelos avançados de IA, como o Mythos da Anthropic, estão a revelar falhas de software, segundo a Reuters. A comissária da ASIC, Simone Constant, afirmou que as empresas devem agir antes de a ameaça se tornar mais clara e concentrar-se em medidas básicas de resiliência cibernética.

Contexto Regulatório

O aviso surgiu um mês depois de a Autoridade de Regulação Prudencial da Austrália ter emitido o seu próprio alerta sobre práticas de segurança que estão a ter dificuldade em acompanhar a IA. Uma investigação separada do Cambridge Centre for Alternative Finance concluiu que apenas 20% dos reguladores tinham avançado na adoção de IA e que os supervisores estavam atrás das empresas financeiras na deteção de danos emergentes.

Capacidades do Exploit do Mythos

A pré-visualização (Preview) do Mythos da Anthropologic vai além de identificar vulnerabilidades: pode escrever exploits funcionais para falhas de software. O modelo, de forma independente, encontrou e explorou um bug com 27 anos no OpenBSD, um sistema operativo open source construído para a segurança. O Mythos também utilizou o CVE-2026-4747 para alcançar execução remota de código como root através do Network File System (NFS) no FreeBSD, outro sistema operativo open source.

A Anthropic afirmou que o modelo encontrou milhares de vulnerabilidades de elevada gravidade em sistemas operativos e navegadores web importantes, muitas das quais tinham passado despercebidas durante anos ou décadas. O acesso ao Mythos Preview é limitado, e o Project Glasswing reúne a Amazon Web Services, as equipas de segurança da Apple, a Google, a Microsoft, a NVIDIA e outras entidades para proteger software amplamente utilizado antes de ferramentas semelhantes se disseminarem.

Impacto na Economia da Cibersegurança

Esta capacidade altera significativamente o custo e o calendário para lançar ciberataques. Bugs que antes eram tratados como de baixo risco passam agora a ser motivo de maior preocupação, porque o Mythos Preview consegue construir exploits em horas — um trabalho que, segundo testadores de intrusão especializados, teria levado semanas usando métodos tradicionais. Esta mudança significa que as empresas financeiras e outras organizações podem precisar de ciclos de correção mais rápidos e de defesas mais automatizadas.

Testes noutros modelos de IA de fronteira sugerem que competências cibernéticas avançadas acompanham o progresso mais amplo da IA, indicando que a ameaça deverá crescer.

FAQ

O que é o Mythos e porque é uma preocupação para as empresas financeiras?

O Mythos é o modelo avançado de IA da Anthropic que consegue identificar vulnerabilidades de software e escrever exploits funcionais. A ASIC alertou as empresas financeiras porque o Mythos pode expor falhas de segurança em sistemas amplamente utilizados, reduzindo o tempo e o custo necessários para lançar ciberataques para o preço de uma chave de API. O modelo demonstrou a capacidade de encontrar milhares de vulnerabilidades de elevada gravidade em sistemas operativos e navegadores web.

Com que rapidez consegue o Mythos gerar exploits em comparação com métodos tradicionais?

O Mythos consegue construir exploits em horas, enquanto testadores de intrusão especialistas disseram que o mesmo trabalho teria levado semanas usando métodos tradicionais. Esta aceleração altera fundamentalmente a economia da cibersegurança e a urgência de corrigir vulnerabilidades.

O que estão os reguladores a fazer para lidar com riscos cibernéticos impulsionados por IA?

A ASIC aconselhou as empresas financeiras a reforçarem as defesas cibernéticas e a centrarem-se em medidas básicas de resiliência cibernética antes de as ameaças se tornarem mais claras. A Autoridade de Regulação Prudencial da Austrália emitiu um aviso semelhante sobre práticas de segurança que ficam atrás do desenvolvimento da IA. O Project Glasswing, que envolve grandes empresas de tecnologia e cloud, trabalha para proteger software amplamente utilizado antes de ferramentas semelhantes de geração de exploits se tornarem generalizadas.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Os custos dos dados de treino de robôs caem 65% desde 2024, passando de 340 dólares para 118 dólares por hora

De acordo com a Cointelegraph, os custos dos dados de treino de robôs caíram 65% desde 2024, passando de 340 dólares por hora para 118 dólares por hora em 2026.

GateNews11m atrás

A China Mobile anuncia uma aliança de ecossistema de aplicação de tokens com 8 parceiros em 8 de maio

De acordo com a PANews, a 8 de maio, a China Mobile anunciou a criação de uma Token Application Ecosystem Alliance, com 8 parceiros, incluindo a Alibaba Cloud, Volcano Engine e Huawei Cloud. A aliança tira partido da plataforma de agregação do modelo MoMA para construir uma gateway de serviços unificada para a IA doméstica m

GateNews26m atrás

A Anthropic lança autoencoders de linguagem natural para decodificar o raciocínio dos modelos de IA, disponibilizando o código em open source

A Anthropic lançou recentemente os Natural Language Autoencoders (NLA), uma ferramenta que traduz as ativações internas dos modelos em texto legível para humanos, com código e pesos do modelo em código aberto no GitHub. Ao contrário de ferramentas existentes, como os Sparse Autoencoders, que produzem características pouco claras, a NLA gera diretamente

GateNews26m atrás

A China divulga um plano de ação em IA e energia com metas para 2027 e 2030 a 8 de maio

De acordo com a PANews, a 8 de maio, a Comissão Nacional de Desenvolvimento e Reforma da China, a Administração Nacional da Energia, o Ministério da Indústria e das Tecnologias da Informação e a Administração Nacional de Dados divulgaram em conjunto uma ação

GateNews55m atrás

Três agências chinesas publicam orientações sobre agentes de IA com 19 cenários típicos de aplicação

De acordo com a PANews, a Administração Estatal do Ciberespaço da China, a Comissão Nacional de Desenvolvimento e Reforma e o Ministério da Indústria e das Tecnologias da Informação divulgaram em conjunto hoje (8 de maio) orientações sobre agentes de IA. O documento define um agente de IA como um sistema de inteligência artificial com autonomia

GateNews1h atrás

FMI: A IA representa um potencial risco para a estabilidade financeira

Relatório do FMI sobre os riscos da IA e da estabilidade financeira O Fundo Monetário Internacional divulgou um relatório a 7 de maio, afirmando que a inteligência artificial (IA) está a mudar a forma como os sistemas financeiros respondem a vulnerabilidades cibernéticas e a incidentes de segurança, ao mesmo tempo que amplifica os riscos de cibersegurança e

CryptoFrontier1h atrás
Comentar
0/400
ReviewMonsterDoesn'tSleepvip
· 7h atrás
Este tipo de modelos Mythos podem ser usados como ferramentas de ataque, os firewalls tradicionais provavelmente não aguentariam, é preciso usar IA contra IA.
Ver originalResponder0
PocketValidatorvip
· 7h atrás
O Comissário está certo, quando acontecer um problema será tarde demais. Mas a questão é: quais pequenas e médias instituições têm orçamento para esse nível de atualização de segurança? A regulamentação deve oferecer algum apoio prático.
Ver originalResponder0
雾里看TVLvip
· 7h atrás
A advertência da ASIC desta vez foi bastante oportuna, a velocidade do AI em encontrar vulnerabilidades é muito maior do que a dos humanos, as instituições financeiras realmente precisam atualizar suas defesas
Ver originalResponder0