IA Copilot na mira dos hackers
15 de Agosto de 2024

A Microsoft acelerou a integração da IA generativa no cerne de seus sistemas.

Faça uma pergunta sobre uma reunião futura, e o sistema de IA Copilot da empresa pode buscar respostas nos seus e-mails, chats do Teams e arquivos — um potencial aumento de produtividade.

Porém, esses mesmos processos também podem ser explorados por hackers.

Na conferência de segurança Black Hat em Las Vegas, o pesquisador Michael Bargury está demonstrando cinco maneiras conceituais de como o Copilot, que opera nos aplicativos Microsoft 365, como o Word, pode ser manipulado por atacantes mal-intencionados, incluindo utilizá-lo para fornecer referências falsas a arquivos, exfiltrar dados privados e driblar as proteções de segurança da Microsoft.

Um dos exemplos mais alarmantes, possivelmente, é a capacidade de Bargury de transformar a IA em uma máquina automática de spear-phishing.

Apelidado de LOLCopilot, o código para testes de invasão criado por Bargury pode — crucialmente, uma vez que o hacker tenha acesso ao e-mail de trabalho de alguém — usar o Copilot para ver com quem você se comunica regularmente, redigir uma mensagem imitando seu estilo de escrita (incluindo o uso de emojis) e enviar um ataque personalizado que pode incluir um link malicioso ou malware anexado.

"Eu posso fazer isso com todos com quem você já falou, e posso enviar centenas de e-mails em seu nome", diz Bargury, cofundador e CTO da empresa de segurança Zenity, que publicou os resultados de sua pesquisa acompanhados de vídeos mostrando como o Copilot poderia ser abusado.

Um hacker gastaria dias elaborando o e-mail certo para fazer você clicar, mas eles podem gerar centenas desses e-mails em alguns minutos.

Essa demonstração, assim como outros ataques criados por Bargury, funciona amplamente utilizando o modelo de linguagem grande (LLM) conforme projetado: digitando perguntas escritas para acessar dados que a IA pode recuperar.

No entanto, pode produzir resultados maliciosos incluindo dados adicionais ou instruções para realizar certas ações.

A pesquisa destaca alguns dos desafios de conectar sistemas de IA a dados corporativos e o que pode acontecer quando dados "não confiáveis" de fora são adicionados à mistura — particularmente quando as respostas da IA parecem resultados legítimos.

Publicidade

Não compre curso de Pentest

Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...