BadGPT: mais de 200 chatbots hackers utilizam IA para aprimorar golpes e crimes cibernéticos
5 de Março de 2024

Poucos meses após o lançamento do ChatGPT em novembro de 2022, os primeiros chatbots de inteligência artificial (IA) para a criação de fraudes também começaram a operar.

As duas tecnologias - a legítima e a fraudulenta - estão surgindo a um ritmo semelhante, e hackers já estão utilizando essas versões "alternativas" para aprimorar golpes, e-mails de phishing e a criação de malwares.

Recentemente, por exemplo, um funcionário de Hong Kong de uma empresa multinacional recebeu um e-mail do seu CEO.

Ele participou de uma reunião de vídeo com seus colegas executivos e realizou uma transação de US$ 25,5 milhões (R$ 126,17 milhões, em conversão direta), apenas para descobrir meses depois que tanto o e-mail quanto a chamada de vídeo eram falsos e gerados por IA.

Embora não seja possível identificar precisamente se o e-mail foi culpado por um bot de bate-papo IA, a tecnologia está em crescimento.

Atualmente, mais de 200 modelos de linguagem com serviços de hacking são vendidos na dark web, de acordo com uma análise de pesquisadores da Universidade de Indiana (EUA).

Não é possível determinar exatamente quantos dos e-mails enviados são feitos usando esta tecnologia, porém a maioria dos chatbots fraudulentos que surgiram no último ano são criados a partir de modelos de IA de código aberto, como o Llama 2, da Meta, ou os modelos "jailbroken" (códigos desbloqueados de desenvolvedores que não os revelam publicamente e são vendidos na dark web).

Jason Clinton, diretor de segurança da informação da Anthropic, fabricante do Claude, disse ao WSJ que a empresa monitora esses vazamentos para controlá-los.

Já uma porta-voz da OpenAI diz que a proprietária do ChatGPT trabalha para que suas ferramentas não sejam usadas para fins mal-intencionados.

No entanto, segundo Brian Miller, CISO da seguradora de saúde sem fins lucrativos Healthfirst, a comunidade de hackers está sempre um passo à frente.

Ele é um dos que viu sua empresa ser alvo de ataques, com falsos fornecedores tentando aplicar golpes.

"BadGPT" e "FraudGPT" são algumas das versões fraudulentas do ChatGPT, por exemplo.

Os chatbots hackers auxiliam no aprimoramento de golpes e cibercrimes, como, por exemplo, tornar e-mails de phishing mais críveis.

De acordo com uma pesquisa de outubro de 2023 da empresa de segurança cibernética SlashNext, os e-mails de phishing aumentaram 1.265% em 12 meses após o lançamento do ChatGPT.

A média é de 31 mil ataques todos os dias.

Além disso, segundo uma reportagem do The Wall Street Journal, empresas públicas, que constantemente têm informações divulgadas, são alvos mais fáceis, pois é possível personalizar as mensagens falsas.

Outro problema são as informações adicionais obtidas na dark web.

Os dados fraudulentos usados para treinar os bots de IA também provém dessa parte obscura da internet, que muitas vezes se aproveita de vazamentos para calibrar a tecnologia e sua capacidade de extorsão.

Publicidade

Não compre curso de Pentest

Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...