A Microsoft realizou uma ação significativa contra uma organização de hackers que estava aproveitando serviços de inteligência artificial (IA) generativos para perpetrar atividades ilícitas.
Por meio de uma ação legal movida pela sua Unidade de Crimes Digitais (DCU), a empresa desvendou uma complexa infraestrutura criada por cibercriminosos focada em burlar sistemas de segurança e oferecer serviços de hacking, que incluía a elaboração de conteúdo mal-intencionado.
Em outras notícias, um jornalista entrou com um processo contra a Shopee devido a problemas em transações, e houve um declínio no volume de ataques de negação de serviço.
Identificado em julho de 2024, o grupo criminoso se valia de credenciais de usuários obtidas de fontes públicas para acessar contas com autorizações em serviços como Azure OpenAI.
Essas contas eram depois usadas para distribuir acesso não autorizado a recursos de IA, exemplificando com o modelo DALL-E, que era aproveitado na produção de imagens prejudiciais.
Ainda, os hackers comercializavam o acesso e providenciavam instruções para outros invasores.
Como medida contra essa atividade criminosa, a Microsoft bloqueou o acesso desses hackers a seus sistemas, aprimorou suas medidas de segurança e conseguiu uma ordem judicial para confiscar o domínio "aitism[.]net", que servia como centro para as operações desse grupo no espaço público.
Além disso, a empresa desativou o repositório da ferramenta de3u, páginas no Rentry.org e toda a infraestrutura relacionada, efetivamente cessando as operações do coletivo.
Os criminosos se aproveitavam de chaves de API furtadas e dados de autenticação de clientes para manipular os serviços do Azure OpenAI.
Empresas localizadas nos Estados Unidos, especificamente na Pensilvânia e em Nova Jersey, foram vítimas dessas práticas ilícitas, com suas chaves API sendo exploradas para fins ilegais.
Utilizando a ferramenta de3u e um serviço de proxy denominado oai, eles enviavam pedidos ao Azure OpenAI para criar conteúdo malicioso veladamente.
A popularidade crescente de ferramentas de IA, como o ChatGPT, despertou o interesse de estados-nação e ciberameaças.
Países como China, Irã e Coreia do Norte já foram associados a esforços de manipular essas tecnologias para fins de inteligência, disseminação de desinformação e criação de malware.
Em adição, o fenômeno do LLMjacking, que consiste no uso de credenciais roubadas de serviços de nuvem para infiltrar-se em infraestruturas de IA, tem emergido como uma nova vertente de ameaça.
A Sysdig reportou incidentes parecidos envolvendo Anthropic, AWS, Google e Microsoft.
A intervenção da Microsoft não só desbaratinou a operação em curso mas também destacou um incremento significativo nos esforços para combater o abuso em plataformas de IA.
A companhia sublinhou que as ações desse grupo prejudicavam não somente sua infraestrutura, mas também a de outros provedores de IA, ressaltando a necessidade de uma cooperação global no enfrentamento a crimes cibernéticos que envolvem inteligência artificial.
Publicidade
Conheça a Solyd One, e tenha acesso a todos os cursos de segurança ofensiva da Solyd, todas as certificações práticas, incluindo a SYCP, 2 CTFs anuais com prêmios de até 30 mil reais, dezenas de laboratórios realísticos, suporte, comunidade e muito mais. Saiba mais...