Falha no Microsoft 365 Copilot
27 de Agosto de 2024

Detalhes emergiram sobre uma vulnerabilidade agora corrigida no Microsoft 365 Copilot, que poderia permitir o roubo de informações sensíveis dos usuários utilizando uma técnica chamada ASCII smuggling.

"ASCII Smuggling é uma técnica nova que usa caracteres Unicode especiais que espelham ASCII mas que na realidade não são visíveis na interface do usuário," afirmou o pesquisador de segurança Johann Rehberger.

Isso significa que um atacante pode fazer com que o [large language model] renderize, para o usuário, dados invisíveis, e os embuta dentro de hyperlinks clicáveis.

Essa técnica basicamente prepara os dados para a exfiltração!

O ataque inteiro liga uma série de métodos de ataque para formar uma cadeia de exploração confiável.

Isso inclui os seguintes passos:

Gatilho de injeção de prompt via conteúdo malicioso oculto em um documento compartilhado no chat
Usando um payload de injeção de prompt para instruir o Copilot a procurar mais e-mails e documentos, aproveitando ASCII smuggling para atrair o usuário a clicar em um link para exfiltrar dados valiosos para um servidor de terceiros

O resultado final do ataque é que dados sensíveis presentes em e-mails, incluindo códigos de autenticação multi-fator (MFA), poderiam ser transmitidos para um servidor controlado pelo adversário.

A Microsoft já abordou as questões seguindo uma divulgação responsável em janeiro de 2024.

O desenvolvimento vem como prova de conceito (PoC) ataques têm sido demonstrados contra o sistema Copilot da Microsoft para manipular respostas, exfiltrar dados privados e driblar proteções de segurança, realçando uma vez mais a necessidade de monitorar riscos em ferramentas de inteligência artificial (AI).

Os métodos, detalhados pela Zenity, permitem a atores maliciosos realizar envenenamento de retrieval-augmented generation (RAG) e injeção indireta de prompt levando a ataques de execução remota de código que podem controlar completamente o Microsoft Copilot e outros aplicativos de AI.

Em um cenário de ataque hipotético, um hacker externo com capacidades de execução de código poderia enganar o Copilot para fornecer aos usuários páginas de phishing.

Talvez um dos ataques mais inovadores seja a capacidade de transformar a AI em uma máquina de spear-phishing.

A técnica de equipe vermelha, apelidada de LOLCopilot, permite a um atacante com acesso à conta de e-mail de uma vítima enviar mensagens de phishing imitando o estilo dos usuários comprometidos.

A Microsoft também reconheceu que bots Copilot expostos publicamente criados usando o Microsoft Copilot Studio e sem quaisquer proteções de autenticação poderiam ser uma via para atores de ameaças extrair informações sensíveis, assumindo que eles tenham conhecimento prévio do nome ou URL do Copilot.

"As empresas devem avaliar sua tolerância ao risco e exposição para prevenir vazamentos de dados dos Copilots (anteriormente Agentes Virtuais do Poder), e habilitar Prevenção de Perda de Dados e outros controles de segurança de acordo para controlar a criação e publicação dos Copilots," disse Rehberger.

Publicidade

Não compre curso de Pentest

Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...