A Microsoft acelerou a integração da IA generativa no cerne de seus sistemas.
Faça uma pergunta sobre uma reunião futura, e o sistema de IA Copilot da empresa pode buscar respostas nos seus e-mails, chats do Teams e arquivos — um potencial aumento de produtividade.
Porém, esses mesmos processos também podem ser explorados por hackers.
Na conferência de segurança Black Hat em Las Vegas, o pesquisador Michael Bargury está demonstrando cinco maneiras conceituais de como o Copilot, que opera nos aplicativos Microsoft 365, como o Word, pode ser manipulado por atacantes mal-intencionados, incluindo utilizá-lo para fornecer referências falsas a arquivos, exfiltrar dados privados e driblar as proteções de segurança da Microsoft.
Um dos exemplos mais alarmantes, possivelmente, é a capacidade de Bargury de transformar a IA em uma máquina automática de spear-phishing.
Apelidado de LOLCopilot, o código para testes de invasão criado por Bargury pode — crucialmente, uma vez que o hacker tenha acesso ao e-mail de trabalho de alguém — usar o Copilot para ver com quem você se comunica regularmente, redigir uma mensagem imitando seu estilo de escrita (incluindo o uso de emojis) e enviar um ataque personalizado que pode incluir um link malicioso ou malware anexado.
"Eu posso fazer isso com todos com quem você já falou, e posso enviar centenas de e-mails em seu nome", diz Bargury, cofundador e CTO da empresa de segurança Zenity, que publicou os resultados de sua pesquisa acompanhados de vídeos mostrando como o Copilot poderia ser abusado.
Um hacker gastaria dias elaborando o e-mail certo para fazer você clicar, mas eles podem gerar centenas desses e-mails em alguns minutos.
Essa demonstração, assim como outros ataques criados por Bargury, funciona amplamente utilizando o modelo de linguagem grande (LLM) conforme projetado: digitando perguntas escritas para acessar dados que a IA pode recuperar.
No entanto, pode produzir resultados maliciosos incluindo dados adicionais ou instruções para realizar certas ações.
A pesquisa destaca alguns dos desafios de conectar sistemas de IA a dados corporativos e o que pode acontecer quando dados "não confiáveis" de fora são adicionados à mistura — particularmente quando as respostas da IA parecem resultados legítimos.
Publicidade
Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...