Cibercriminosos treinam chatbots de IA para ataques de phishing e malware
2 de Agosto de 2023

Após o surgimento do WormGPT, um clone do ChatGPT treinado com dados focados em malware, apareceu uma nova ferramenta hacker de inteligência artificial generativa chamada FraudGPT, e há pelo menos mais uma em desenvolvimento que alegadamente se baseia no experimento de IA do Google, Bard.

Ambos os bots alimentados por IA são obra da mesma pessoa, que parece mergulhada no jogo de prover chatbots treinados especificamente para fins maliciosos, que variam desde phishing e engenharia social, até exploração de vulnerabilidades e criação de malware.

FraudGPT foi lançado em 25 de julho e tem sido anunciado em vários fóruns de hackers por alguém com o nome de usuário CanadianKingpin12, que diz que a ferramenta é destinada a fraudadores, hackers e spammers.

Uma investigação de pesquisadores da empresa de cibersegurança SlashNext revela que CanadianKingpin12 está ativamente treinando novos chatbots usando conjuntos de dados irrestritos provenientes da web obscura ou baseando-os em modelos de linguagem grande sofisticada desenvolvidos para combater o cibercrime.

Em conversas privadas, CanadianKingpin12 afirmou que estava trabalhando no DarkBART - uma "versão obscura" do chatbot de IA generativa conversacional do Google.

Os pesquisadores também descobriram que o anunciante também tinha acesso ao DarkBERT, um grande modelo de linguagem desenvolvido por pesquisadores sul-coreanos e treinado com dados da web obscura para combater o cibercrime.

DarkBERT está disponível para acadêmicos com base em endereços de e-mail relevantes, mas SlashNext ressalta que esse critério está longe de ser um desafio para hackers ou desenvolvedores de malware, que podem ter acesso à um endereço de e-mail de uma instituição acadêmica por cerca de US$3.

Pesquisadores da SlashNext compartilharam que CanadianKingpin12 afirmou que o bot DarkBERT é "superior a todos em uma categoria à parte especificamente treinada na web obscura".

A versão maliciosa foi sintonizada para:
- Criando campanhas sofisticadas de phishing que miram senhas e informações de cartões de crédito das vítimas;
- Realizando ataques avançados de engenharia social para obter informações sensíveis ou obter acesso não autorizado a sistemas e redes;
- Explorando vulnerabilidades em sistemas de computadores, software e redes;
- Criando e distribuindo malware;
- Explorando vulnerabilidades zero-day para obter ganhos financeiros ou causar interrupções nos sistemas.

Como CanadianKingpin12 disse em mensagens privadas com os pesquisadores, tanto o DarkBART quanto o DarkBERT terão acesso à internet ao vivo e integração perfeita com o Google Lens para processamento de imagens.

Não está claro se CanadianKingpin12 modificou o código na versão legítima do DarkBERT ou apenas obteve acesso ao modelo e simplesmente o utilizou para fins maliciosos.

Independente da origem do DarkBERT e da validade das alegações do ator de ameaças, a tendência de uso de chatbots de IA generativa está crescendo e a taxa de adoção provavelmente vai aumentar também, pois pode oferecer uma solução fácil para atores de ameaças menos capazes ou para aqueles que desejam expandir operações para outras regiões e falta habilidades de idioma.

Com os hackers já tendo acesso a duas dessas ferramentas que podem auxiliar na execução de ataques avançados de engenharia social e em seu desenvolvimento em menos de um mês, "destaca a influência significativa de IA maliciosa na paisagem de cibersegurança e cibercrime", acreditam os pesquisadores do SlashNext.

Publicidade

Não compre curso de Pentest

Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...