Novo ataque mira IA hospedada na nuvem
10 de Maio de 2024

Pesquisadores de cibersegurança descobriram um novo tipo de ataque que usa credenciais de nuvem roubadas para mirar em serviços de modelos de linguagem de grande escala (LLM) hospedados na nuvem, com o objetivo de vender o acesso a outros atores de ameaças.

A técnica de ataque foi batizada de LLMjacking pela Equipe de Pesquisa de Ameaças da Sysdig.

"Uma vez obtido o acesso inicial, eles exfiltraram credenciais de nuvem e ganharam acesso ao ambiente de nuvem, onde tentaram acessar modelos LLM locais hospedados pelos provedores de nuvem", disse o pesquisador de segurança Alessandro Brucato.

Neste caso, um modelo LLM local Claude (v2/v3) da Anthropic foi o alvo.

O caminho da intrusão usado para realizar o esquema envolve a violação de um sistema rodando uma versão vulnerável do Laravel Framework (por exemplo, CVE-2021-3129 ), seguido pela obtenção de credenciais da Amazon Web Services (AWS) para acessar os serviços LLM.

Entre as ferramentas utilizadas está um script Python de código aberto que verifica e valida chaves para várias ofertas da Anthropic, AWS Bedrock, Google Cloud Vertex AI, Mistral e OpenAI, entre outros.

"Nenhuma consulta LLM legítima foi realmente executada durante a fase de verificação", explicou Brucato.

Em vez disso, foi feito apenas o suficiente para descobrir do que as credenciais eram capazes e quaisquer quotas.

O keychecker também tem integração com outra ferramenta de código aberto chamada oai-reverse-proxy que funciona como um servidor de proxy reverso para APIs LLM, indicando que os atores de ameaças provavelmente estão fornecendo acesso às contas comprometidas sem realmente expor as credenciais subjacentes.

"Se os atacantes estivessem reunindo um inventário de credenciais úteis e quisessem vender acesso aos modelos LLM disponíveis, um proxy reverso como este poderia permitir que lucrassem com seus esforços", disse Brucato.

Além disso, observou-se que os atacantes consultavam configurações de log em uma tentativa provável de evitar detecção ao usar as credenciais comprometidas para executar seus comandos.

O desenvolvimento é uma divergência de ataques que focam em injeções de comando e envenenamento de modelo, permitindo em vez disso que os atacantes monetizem seu acesso aos LLMs enquanto o proprietário da conta de nuvem paga a conta sem seu conhecimento ou consentimento.

A Sysdig disse que um ataque desse tipo poderia acumular mais de $46.000 em custos de consumo de LLM por dia para a vítima.

"O uso de serviços LLM pode ser caro, dependendo do modelo e da quantidade de tokens sendo alimentados a ele", disse Brucato.

"Maximizando os limites de quota, os atacantes também podem bloquear a organização comprometida de usar modelos legitimamente, interrompendo as operações comerciais."

Recomenda-se que as organizações habilitem logs detalhados e monitorem os logs da nuvem para atividades suspeitas ou não autorizadas, além de garantir que processos eficazes de gestão de vulnerabilidades estejam em vigor para prevenir o acesso inicial.

Publicidade

Curso gratuito de Python

O curso Python Básico da Solyd oferece uma rápida aproximação à linguagem Python com diversos projetos práticos. Indo do zero absoluto até a construção de suas primeiras ferramentas. Tenha também suporte e certificado gratuitos. Saiba mais...