Pesquisadores de cibersegurança identificaram o que pode ser o primeiro exemplo conhecido até hoje de malware com capacidades integradas de Large Language Model (LLM).
Batizado de MalTerminal pela equipe SentinelLABS da SentinelOne, esse malware foi apresentado na conferência de segurança LABScon 2025.
Segundo o relatório da empresa, modelos de IA têm sido cada vez mais utilizados por agentes maliciosos para suporte operacional e também incorporados diretamente em suas ferramentas — um novo tipo de ameaça conhecido como LLM-embedded malware, exemplificado por ameaças como LAMEHUG (também chamado de PROMPTSTEAL) e PromptLock.
Entre as descobertas está um executável para Windows chamado MalTerminal, que utiliza o GPT-4 da OpenAI para gerar dinamicamente códigos de ransomware ou comandos de reverse shell.
Apesar de sua sofisticação, não há indícios de que ele tenha sido utilizado em ataques reais, o que sugere que pode ser um malware proof-of-concept ou uma ferramenta para testes internos (red team).
“MalTerminal contém um endpoint da API OpenAI chat completions que foi desativado no início de novembro de 2023, o que indica que o código foi criado antes disso, tornando essa a amostra mais antiga de malware habilitado com LLM”, explicam os pesquisadores Alex Delamotte, Vitaly Kamluk e Gabriel Bernadett-Shapiro.
Além do binário para Windows, o pacote traz diversos scripts em Python, alguns funcionalmente iguais ao executável, que solicitam ao usuário opções entre “ransomware” ou “reverse shell”.
Há também uma ferramenta defensiva chamada FalconShield, que analisa arquivos Python buscando padrões suspeitos, consultando o modelo GPT para determinar se o código é malicioso e gerando um relatório de análise do malware.
“A incorporação de LLMs em malwares representa uma mudança qualitativa no modo de atuação dos adversários”, observa a SentinelOne.
“Com a capacidade de gerar lógica e comandos maliciosos em tempo real, esse tipo de malware traz novos desafios para os defensores.”
Contornando as Camadas de Segurança de E-mails com LLMs: Essas descobertas se somam a um estudo da StrongestLayer que revelou como criminosos digitais estão usando prompts ocultos em e-mails de phishing para enganar scanners de segurança baseados em IA, permitindo que as mensagens bogus cheguem às caixas de entrada dos usuários.
As campanhas de phishing, que há muito dependem da engenharia social para ludibriar vítimas, ganharam um novo nível de sofisticação com o uso de ferramentas de IA.
Isso aumenta a chance de interação dos usuários e facilita a adaptação rápida dos criminosos frente às defesas de e-mail.
Um exemplo típico consiste em um e-mail simples, que se passa por uma notificação de divergência em uma fatura e incentiva o destinatário a abrir um anexo HTML.
O truque está no código HTML do e-mail, que esconde um prompt de injeção de comandos — usando estilos CSS como “display:none; color:white; font-size:1px;” — que orienta a IA a classificar aquela mensagem como segura.
“O atacante estava falando a língua da IA para convencê-la a ignorar a ameaça, transformando nossa própria defesa em cúmplice involuntário”, explica Muhammad Rizwan, CTO da StrongestLayer.
Quando o usuário abre o anexo HTML, uma cadeia de ataque é ativada, explorando uma vulnerabilidade conhecida como Follina (
CVE-2022-30190
, com pontuação CVSS de 7,8).
A falha permite o download e execução de um payload HTML Application (HTA) que libera um script PowerShell.
Esse script, por sua vez, busca malwares adicionais, desabilita o Microsoft Defender Antivirus e garante persistência no sistema da vítima.
Segundo a StrongestLayer, tanto os arquivos HTML quanto HTA utilizam uma técnica chamada LLM Poisoning para burlar ferramentas de análise com IA, por meio de comentários de código especialmente construídos.
IA e Phishing - uma Arma de Dois Gumes: A adoção corporativa de ferramentas de IA generativa está transformando setores, mas também oferece terreno fértil para cibercriminosos.
Eles aproveitam essas tecnologias para criar golpes de phishing, desenvolver malware e apoiar diversas fases dos ataques.
Um relatório recente da Trend Micro aponta um aumento em campanhas de engenharia social que utilizam construtoras de sites com IA, como Lovable, Netlify e Vercel.
Desde janeiro de 2025, esses serviços têm sido usados para hospedar páginas falsas de CAPTCHA que redirecionam vítimas para sites de phishing, onde credenciais e dados sensíveis são coletados.
“As vítimas veem primeiro um CAPTCHA, o que diminui a suspeita, enquanto scanners automáticos identificam apenas a página de desafio, não detectando o redirecionamento oculto para coleta de credenciais”, explicam os pesquisadores Ryan Flores e Bakuei Matsukawa.
“Os atacantes exploram a facilidade de implantação, hospedagem gratuita e o branding confiável dessas plataformas.”
Para a Trend Micro, esses serviços de hospedagem com suporte de IA funcionam como uma “arma de dois gumes”, pois podem ser explorados rapidamente, em grande escala e com baixo custo para ataques de phishing.
Publicidade
Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...