Google revela o primeiro caso de vulnerabilidade zero-day criada por IA: hackers tentam burlar a 2FA em larga escala

ChainNewsAbmedia

A equipe de Threat Intelligence Group (GTIG) do Google revelou em 11 de maio o primeiro caso de exploração de zero-day “assistida por um modelo de IA”: um grupo de hackers planeja realizar “exploração em larga escala” contra uma ferramenta popular de administração de sistema de código aberto para contornar o mecanismo de login por verificação em duas etapas (2FA) dessa ferramenta. De acordo com a CNBC, o Google coordenou com o fornecedor da ferramenta para concluir a correção da vulnerabilidade antes que o ataque fosse oficialmente iniciado.

O próprio evento: como uma vulnerabilidade zero-day foi “fabricada” com ajuda de IA

Depois de analisar o script de exploração de uma vulnerabilidade em Python deixado pelos hackers, o GTIG está “altamente confiante” de que o script foi gerado com assistência de um modelo de IA. A evidência está em múltiplas características típicas de LLM presentes no código:

Muitos docstrings e comentários didáticos (em contraste com o estilo de código normalmente mais conciso que hackers reais usam)

CVSS “alucinatório” dentro do script (um comportamento inventado comum em modelos de IA)

Estilo de programação Python estruturado, como em livros-texto, com uma lista de explicações detalhadas

Marcas-modelo “típicas de dados de treinamento de LLM”, como um template limpo para categorias de cor _C ANSI

A vulnerabilidade em si é uma “falha lógica semântica de alto nível”, originada de uma suposição de confiança embutida no código (hard-coded trust assumption). O Google descreve que esse é o tipo de vulnerabilidade que LLMs são melhores em “escavar” durante análise de código. O caminho real do ataque: após obter as credenciais legítimas da vítima, os hackers usam essa falha para contornar o 2FA e entrar diretamente.

Resposta do Google: correção silenciosa em conjunto com o fornecedor, ataque sem ter sido ativado oficialmente

O Google não divulgou o nome da ferramenta de administração de sistema de código aberto afetada, nem indicou o fornecedor de modelo de IA. Após encontrar o caso, o GTIG trabalhou com o fornecedor que mantinha a ferramenta para executar o procedimento de “divulgação responsável”, corrigir silenciosamente a vulnerabilidade e permitir que o Google avaliasse que esse tratamento poderia ter desfeito o impulso da ação antes que o grupo de hackers iniciasse oficialmente uma exploração em larga escala.

O Google também não citou especificamente o agressor — apenas o descreveu como “atores de ameaça de crimes cibernéticos” (cybercrime threat actors), sem atribuir a um agente estatal.

Significado para a indústria: IA x segurança cibernética entram em uma nova fase

Observação da mídia: este caso é o primeiro registro público do Google de “um modelo de IA sendo armado no mundo real para produzir programas de descoberta e exploração de vulnerabilidades”. Nos últimos seis meses, o mercado discutiu se as “capacidades de hackers com IA” foram exageradas — e ambos os lados têm argumentos: o grupo que concorda aponta que LLMs open source somados a conjuntos de dados específicos já seriam suficientes para ajudar a encontrar vulnerabilidades; o grupo que discorda argumenta que, na prática, os scripts de exploração escritos por LLMs quase sempre não funcionam no ambiente real.

O veredito do GTIG fornece um dado concreto: além de encontrar vulnerabilidades, um LLM também consegue escrever um programa “capaz de desencadear uma exploração em larga escala” que realmente funciona. O pesquisador de segurança Ryan Dewhurst comentou: “A IA está acelerando a descoberta de vulnerabilidades e reduzindo o esforço necessário para identificar, validar e armear falhas”.

Eventos que podem ser acompanhados em seguida incluem: se o Google vai publicar progressivamente mais casos de hackers com IA, se outras empresas de segurança cibernética (Microsoft Defender, CrowdStrike, Mandiant etc.) vão apresentar observações semelhantes e se fornecedores de LLM (OpenAI, Anthropic, o próprio Google) vão criar mecanismos de detecção mais rigorosos para pedidos relacionados a análise de vulnerabilidades.

Este artigo, em que o Google revela o primeiro caso de vulnerabilidade zero-day “fabricada” por IA: hacker buscando exploração em larga escala para contornar o 2FA, apareceu pela primeira vez em 鏈新聞 ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários