OpenAI bloqueia hackers patrocinados pelo estado de usar o ChatGPT
16 de Fevereiro de 2024

A OpenAI removeu contas usadas por grupos de ameaça patrocinados pelo estado do Irã, Coreia do Norte, China e Rússia, que estavam abusando de seu chatbot de inteligência artificial, o ChatGPT.

A organização de pesquisa de IA tomou medidas contra contas específicas associadas aos grupos de hackers que estavam fazendo mau uso de seus serviços de modelo de linguagem grande (LLM) para fins maliciosos, após receber informações importantes da equipe de Inteligência de Ameaças da Microsoft.

Em um relatório separado, a Microsoft fornece mais detalhes sobre como e por que esses atores avançados de ameaças usaram o ChatGPT.

A atividade associada aos seguintes grupos de ameaça foi encerrada na plataforma:

Frost Blizzard (Strontium) [Rússia]: Utilizou o ChatGPT para realizar pesquisas em tecnologias de satélite e radar pertinentes a operações militares e para otimizar suas operações de internet com melhorias de script.

Emerald Sleet (Thallium) [Coréia do Norte]: Utilizou o ChatGPT para pesquisar sobre a Coréia do Norte e gerar conteúdo de spear-phishing, além de entender vulnerabilidades (como CVE-2022-30190 "Follina") e de solucionar problemas de tecnologias web.

Crimson Sandstorm (Curium) [Irã]: Interagiu com ChatGPT para assistência em engenharia social, solução de problemas de erro, desenvolvimento .NET e desenvolvimento de técnicas de evasão.

Charcoal Typhoon (Chromium) [China]: Interagiu com o ChatGPT para ajudar no desenvolvimento de ferramentas, scripting, compreensão de ferramentas de segurança cibernética e geração de conteúdo de engenharia social.

Salmon Typhoon (Sodium) [China]: Empregou LLMs para consultas exploratórias sobre uma ampla gama de tópicos, incluindo informações sensíveis, indivíduos de alto perfil e segurança cibernética, para expandir suas ferramentas de coleta de informações e avaliar o potencial de novas tecnologias para fontes de informações.

De maneira geral, os atores da ameaça usaram os modelos de linguagem grande para aprimorar suas capacidades estratégicas e operacionais, incluindo reconhecimento, engenharia social, táticas de evasão e coleta genérica de informações.

Nenhum dos casos observados envolve o uso de LLMs para o desenvolvimento direto de malware ou ferramentas de exploração customizadas completas.

Em vez disso, a assistência de codificação real preocupava-se com tarefas de nível mais baixo, como solicitar dicas de evasão, scripting, desligamento de antivírus e, em geral, a otimização de operações técnicas.

Em janeiro, um relatório do Centro Nacional de Segurança Cibernética do Reino Unido (NCSC) previu que, até 2025, as operações de ameaças persistentes avançadas (APTs) beneficiar-se-ão de ferramentas de IA em toda a diretoria, especialmente no desenvolvimento de malware customizado evasivo.

No ano passado, no entanto, de acordo com os resultados da OpenAI e da Microsoft, houve um aumento nos segmentos de ataque APT, como phishing/engenharia social, mas o resto foi bastante exploratório.

A OpenAI diz que continuará a monitorar e interromper os hackers apoiados pelo estado usando tecnologia de monitoramento especializada, informações de parceiros da indústria e equipes dedicadas a identificar padrões de uso suspeitos.

"Tomamos lições aprendidas com o abuso desses atores e as usamos para informar nossa abordagem iterativa para a segurança", diz a postagem da OpenAI.

"Entender como os atores maliciosos mais sofisticados procuram usar nossos sistemas para o mal nos dá um sinal sobre práticas que podem se tornar mais comuns no futuro e nos permite evoluir continuamente nossas salvaguardas", acrescentou a empresa.

Publicidade

Aprenda hacking e pentest na prática com esse curso gratuito

Passe por todas as principais fases de um pentest, utilizando cenários, domínios e técnicas reais utilizados no dia a dia de um hacker ético. Conte ainda com certificado e suporte, tudo 100% gratuito. Saiba mais...