Milhares de Credenciais roubadas da OpenAI estão à venda na dark web
20 de Julho de 2023

Atuantes de ameaças estão mostrando um interesse crescente em ferramentas de inteligência artificial generativa, com centenas de milhares de credenciais do OpenAI à venda na dark web e acesso a uma alternativa maliciosa para o ChatGPT.

Tanto cibercriminosos menos habilidosos quanto experientes podem usar as ferramentas para criar e-mails de phishing mais convincentes, que são personalizados para o público-alvo a fim de aumentar as chances de um ataque bem-sucedido.

Em seis meses, os usuários da dark web e do Telegram citaram o ChatGPT, o chatbot de inteligência artificial da OpenAI, mais de 27.000 vezes, de acordo com os dados da Flare, uma empresa de gerenciamento de exposição a ameaças, compartilhados com o BleepingComputer.

Analisando fóruns e mercados da dark web, os pesquisadores da Flare perceberam que as credenciais do OpenAI estão entre as mercadorias mais recentes disponíveis.

Os pesquisadores identificaram mais de 200.000 credenciais do OpenAI à venda na dark web na forma de logs de roubo.

Comparado aos estimados 100 milhões de usuários ativos em janeiro, o número parece insignificante, mas mostra que os autores das ameaças veem nas ferramentas de IA generativas um potencial para atividades maliciosas.

Um relatório de junho da empresa de cibersegurança Group-IB afirmou que mercados ilícitos na dark web negociaram logs de malwares que roubam informações contendo mais de 100.000 contas do ChatGPT.

O interesse dos cibercriminosos nessas utilidades aumentou a ponto de um deles desenvolver um clone do ChatGPT chamado WormGPT e treiná-lo com dados focados em malware.

A ferramenta é anunciada como a "melhor alternativa para o GPT para blackhat" e uma alternativa ao ChatGPT "que permite a você fazer todo tipo de coisa ilegal."

O WormGPT se baseia no modelo de linguagem GPT-J de código aberto desenvolvido em 2021 para produzir texto semelhante ao humano.

Seu desenvolvedor diz que treinaram a ferramenta em um conjunto diverso de dados, com foco em dados relacionados a malware, mas não forneceu indícios sobre os conjuntos de dados específicos.

O provedor de segurança de e-mail SlashNext conseguiu obter acesso ao WormGPT e realizou alguns testes para determinar o perigo potencial que ele representa.

O foco dos pesquisadores era em criar mensagens adequadas para ataques de comprometimento de e-mail comercial (BEC).

"Em um experimento, instruímos o WormGPT a gerar um email destinado a pressionar um gerente de contas incauto a pagar uma fatura fraudulenta", explicam os pesquisadores.

"Os resultados foram perturbadores.

O WormGPT produziu um e-mail que era não apenas extremamente persuasivo, mas também estrategicamente astuto, mostrando seu potencial para ataques sofisticados de phishing e BEC", concluíram.

Analisando o resultado, os pesquisadores da SlashNext identificaram as vantagens que a IA generativa pode trazer para um ataque BEC: além do "gramática impecável" que confere legitimidade à mensagem, também pode permitir que atacantes menos habilidosos realizem ataques acima de seu nível de sofisticação.

Embora se defender contra essa ameaça emergente possa ser difícil, as empresas podem se preparar treinando funcionários sobre como verificar mensagens que clamam atenção urgente, especialmente quando há um componente financeiro presente.

Melhorar os processos de verificação de e-mails também deve ser benéfico com alertas para mensagens externas à organização ou através da sinalização de palavras-chave geralmente associadas a um ataque BEC.

Publicidade

Não compre curso de Pentest

Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...