Google: hackers usaram IA para criar exploit zero-day em ferramenta de administração web
11 de Maio de 2026

Pesquisadores do Google Threat Intelligence Group (GTIG) afirmam que um exploit de zero-day direcionado a uma ferramenta popular e open source de administração web provavelmente foi gerado com o uso de IA.

O exploit poderia ser usado para contornar a proteção de autenticação de dois fatores (2FA) em um sistema popular de administração de servidores baseado na web e de código aberto, cujo nome não foi divulgado.

Embora o ataque tenha sido frustrado antes da fase de exploração em massa, o incidente mostra que threat actors estão recorrendo cada vez mais à assistência de IA para identificar e explorar vulnerabilidades.

Com base na estrutura e no conteúdo do código do exploit em Python, o Google tem alta confiança de que o adversário usou um modelo de IA para localizar e transformar a falha em arma.

“Por exemplo, o script contém uma quantidade excessiva de docstrings educacionais, incluindo uma pontuação CVSS alucinada, e usa um formato Python estruturado, de manual, altamente característico dos dados de treinamento de LLMs”, afirma o GTIG em relatório divulgado hoje.

O LLM usado na tarefa maliciosa ainda não foi identificado, mas o Google descarta a possibilidade de que o Gemini tenha participado do processo.

Outra evidência que aponta para o uso de ferramentas de LLM na fase de descoberta é a própria natureza da falha, um bug de lógica semântica de alto nível, algo que sistemas de IA tendem a identificar com mais facilidade, em vez de problemas de corrupção de memória ou de sanitização de entrada, normalmente encontrados por meio de fuzzing ou análise estática.

O Google notificou o desenvolvedor do software sobre a ameaça significativa e agiu a tempo de interromper o ataque.

“Pela primeira vez, o GTIG identificou um threat actor usando um exploit de zero-day que acredita ter sido desenvolvido com IA”, afirmam os pesquisadores do GTIG.

Além desse caso, o Google observa que hackers chineses e norte-coreanos, como APT27, APT45, UNC2814, UNC5673 e UNC6201, têm usado modelos de IA para descoberta de vulnerabilidades e desenvolvimento de exploits, dando continuidade à tendência observada no relatório de fevereiro.

Também foram observados atores ligados à Rússia usando código isca gerado por IA para ocultar malware como CANFAIL e LONGSTREAM.

O Google destacou ainda uma operação russa com o codinome “Overload”, na qual threat actors de engenharia social usaram clonagem de voz por IA para se passar por jornalistas reais em vídeos falsos que promoviam a narrativa anti-Ucrânia.

O backdoor PromptSpy para Android, documentado pela ESET no início deste ano, também aparece no relatório do Google por integrar APIs do Gemini para interação autônoma com o dispositivo.

No entanto, o Google também encontrou um módulo autônomo chamado “GeminiAutomationAgent”, que usa um prompt hardcoded para permitir que o malware interaja com o dispositivo de forma automatizada.

Segundo os pesquisadores, a função do prompt é atribuir uma persona inofensiva para driblar os mecanismos de segurança do LLM.

O objetivo é calcular a geometria dos limites da interface do usuário, algo que o PromptSpy poderia usar para interagir com o dispositivo de várias maneiras.

Além disso, o malware faz uso de recursos baseados em IA para reproduzir a autenticação no dispositivo, seja por padrão de desbloqueio ou PIN, afirmam os pesquisadores do Google.

A empresa alerta que os threat actors estão industrializando o acesso a modelos de IA premium por meio de criação automatizada de contas, relés de proxy e infraestrutura de compartilhamento de contas.

Publicidade

Traçamos um caminho para você ir do zero ao avançado em hacking

Conheça a Solyd One, e tenha acesso a todos os cursos de segurança ofensiva da Solyd, todas as certificações práticas, incluindo a SYCP, 2 CTFs anuais com prêmios de até 30 mil reais, dezenas de laboratórios realísticos, suporte, comunidade e muito mais. Saiba mais...