Observou-se que atores de ameaças desconhecidos estão utilizando o v0, uma ferramenta de inteligência artificial (AI) generativa da Vercel, para criar páginas falsas de login que imitam suas contrapartes legítimas.
"Esta observação sinaliza uma nova evolução na armação de AI Generativa por atores de ameaças, que demonstraram capacidade de gerar um site de phishing funcional a partir de simples prompts de texto," disseram os pesquisadores de Inteligência de Ameaças da Okta, Houssem Eddine Bordjiba e Paula De la Hoz.
O v0 é uma oferta impulsionada por AI da Vercel que permite aos usuários criar páginas de destino básicas e aplicativos full-stack usando prompts de linguagem natural.
O provedor de serviços de identidade disse que observou golpistas usando a tecnologia para desenvolver réplicas convincentes de páginas de login associadas a várias marcas, incluindo um cliente não nomeado da própria empresa.
Após a divulgação responsável, a Vercel bloqueou o acesso a esses sites de phishing.
Os atores de ameaças por trás da campanha também foram encontrados hospedando outros recursos, como os logotipos das empresas impostoras na infraestrutura da Vercel, provavelmente em um esforço para abusar da confiança associada à plataforma de desenvolvedores e evadir a detecção.
Diferente dos kits de phishing tradicionais que exigem algum esforço para serem montados, ferramentas como o v0 — e seus clones de código aberto no GitHub — permitem que os atacantes criem páginas falsas apenas digitando um prompt.
É mais rápido, mais fácil e não requer habilidades de codificação.
Isso torna simples para atores de ameaças de baixa habilidade construir sites de phishing convincentes em escala.
"A atividade observada confirma que os atores de ameaças de hoje estão ativamente experimentando e armando ferramentas de GenAI líderes para otimizar e aprimorar suas capacidades de phishing," disseram os pesquisadores.
O uso de uma plataforma como o v0.dev da Vercel permite que atores de ameaças emergentes produzam rapidamente páginas de phishing enganosas e de alta qualidade, aumentando a velocidade e a escala de suas operações.
Este desenvolvimento ocorre enquanto agentes mal-intencionados continuam a aproveitar modelos de linguagem grande (LLMs) para auxiliar em suas atividades criminosas, construindo versões não censuradas desses modelos que são explicitamente projetadas para fins ilícitos.
Um desses LLMs que ganhou popularidade na paisagem do cibercrime é o WhiteRabbitNeo, que se anuncia como um "Modelo de AI Não Censurado para equipes de (Dev)SecOps."
"Cibercriminosos estão cada vez mais se voltando para LLMs não censurados, LLMs desenhados por cibercriminosos e 'jailbreaking' de LLMs legítimos," disse o pesquisador da Cisco Talos, Jaeson Schultz.
LLMs não censurados são modelos desalinhados que operam sem as restrições de barreiras de segurança.
Esses sistemas geram felizes saídas sensíveis, controversas ou potencialmente prejudiciais em resposta a prompts dos usuários.
Como resultado, LLMs não censurados são perfeitamente adequados para uso por cibercriminosos.
Isso se encaixa em uma mudança maior que estamos vendo: O phishing está sendo impulsionado por AI de mais maneiras do que antes.
E-mails falsos, vozes clonadas, até vídeos deepfake estão aparecendo em ataques de engenharia social.
Essas ferramentas ajudam os atacantes a escalar rapidamente, transformando pequenos golpes em campanhas automatizadas de grande escala.
Não se trata mais apenas de enganar os usuários—é sobre construir sistemas inteiros de engano.
Publicidade
Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...