Pesquisadores de cibersegurança revelaram múltiplas falhas de segurança que impactam ferramentas e frameworks de machine learning (ML) open-source, como MLflow, H2O, PyTorch e MLeap, que podem abrir caminho para execução de código.
As vulnerabilidades, descobertas pela JFrog, fazem parte de uma coleção mais ampla de 22 falhas de segurança que a empresa de segurança da cadeia de suprimentos divulgou pela primeira vez no mês passado.
Ao contrário do primeiro conjunto que envolvia falhas do lado do servidor, as recém-detalhadas permitem a exploração de clientes de ML e residem em bibliotecas que lidam com formatos de modelo seguros, como Safetensors.
"A tomada de controle de um cliente de ML em uma organização pode permitir que os atacantes realizem uma extensa movimentação lateral dentro da organização," disse a empresa.
Um cliente de ML provavelmente terá acesso a serviços importantes de ML, como registros de modelo de ML ou pipelines de MLOps.
Isso, por sua vez, pode expor informações sensíveis, como credenciais de registro de modelo, permitindo efetivamente a um ator malicioso inserir backdoors em modelos de ML armazenados ou alcançar a execução de código.
A lista de vulnerabilidades inclui:
-
CVE-2024-27132
(pontuação CVSS: 7.2) - Um problema de sanitização insuficiente no MLflow que leva a um ataque cross-site scripting (XSS) ao executar uma receita não confiável em um Jupyter Notebook, resultando finalmente em execução remota de código (RCE) do lado do cliente.
-
CVE-2024-6960
(pontuação CVSS: 7.5) - Um problema de desserialização insegura no H20 ao importar um modelo de ML não confiável, potencialmente resultando em RCE.
Um problema de traversal de caminho no recurso TorchScript do PyTorch que poderia resultar em negação de serviço (DoS) ou execução de código devido à sobrescrita de arquivos arbitrários, o que poderia ser usado para sobrescrever arquivos críticos do sistema ou um arquivo pickle legítimo (Sem identificador CVE)
-
CVE-2023-5245
(pontuação CVSS: 7.5) - Um problema de traversal de caminho no MLeap ao carregar um modelo salvo no formato zip que pode levar a uma vulnerabilidade Zip Slip, resultando em sobrescrita de arquivos arbitrários e execução potencial de código
A JFrog observou que modelos de ML não devem ser carregados cegamente, mesmo em casos em que são carregados de um tipo seguro, como Safetensors, pois têm a capacidade de alcançar execução arbitrária de código.
"Ferramentas de IA e Machine Learning (ML) possuem um imenso potencial para inovação, mas também podem abrir portas para atacantes causarem danos generalizados a qualquer organização," disse em um comunicado Shachar Menashe, VP de Pesquisa de Segurança da JFrog.
Para se proteger contra essas ameaças, é importante saber quais modelos você está usando e nunca carregar modelos de ML não confiáveis, mesmo de um repositório de ML 'seguro'.
Fazer isso pode levar à execução remota de código em alguns cenários, causando extensos danos à sua organização.
Publicidade
Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...