Erro da Microsoft expõe e-mails confidenciais a ferramenta de IA Copilot
20 de Fevereiro de 2026

A Microsoft reconheceu um erro que fez com que seu assistente de trabalho baseado em IA acessasse e resumisse, de forma equivocada, e-mails confidenciais de alguns usuários.

O gigante da tecnologia promove o Microsoft 365 Copilot Chat como uma solução segura para que empresas e colaboradores utilizem seu chatbot generativo de IA.

No entanto, um problema recente fez com que a ferramenta expusesse informações a determinados usuários corporativos a partir de mensagens armazenadas nas pastas de rascunhos e itens enviados — inclusive aquelas marcadas como confidenciais.

A Microsoft informou que já liberou uma atualização para corrigir a falha e garantiu que "não forneceu acesso a informações para pessoas sem autorização prévia para vê-las".

Especialistas, porém, alertam que a velocidade com que as empresas disputam para incluir novas funcionalidades de IA torna erros como esse praticamente inevitáveis.

O Copilot Chat pode ser usado em programas da Microsoft, como Outlook e Teams, para responder perguntas ou resumir mensagens de e-mail e conversas.

"Identificamos e resolvemos um problema em que o Microsoft 365 Copilot Chat poderia retornar conteúdo de e-mails classificados como confidenciais, criados por um usuário e armazenados nas pastas de rascunhos e itens enviados no Outlook desktop", explicou um porta-voz da Microsoft.

"Embora nossos controles de acesso e políticas de proteção de dados tenham permanecido intactos, esse comportamento não condiz com a experiência pretendida do Copilot, que é projetado para excluir conteúdo protegido do acesso da ferramenta", acrescentou.

"Uma atualização de configuração foi implementada globalmente para clientes corporativos."

A publicação citou um comunicado da Microsoft afirmando que "mensagens de e-mail dos usuários com o rótulo confidencial aplicado estavam sendo processadas incorretamente pelo Microsoft 365 Copilot Chat".

O aviso acrescentava que uma aba de trabalho dentro do Copilot Chat resumiu mensagens armazenadas nas pastas de rascunhos e itens enviados, mesmo com rótulo de sensibilidade e política de prevenção contra perda de dados configurada para bloquear compartilhamentos não autorizados.

Segundo relatos, a Microsoft detectou o erro pela primeira vez em janeiro.

O comunicado sobre o bug também foi compartilhado em um painel de suporte a trabalhadores do NHS na Inglaterra, onde a causa raiz foi atribuída a um "problema de código".

Um trecho do aviso no site de suporte de TI do NHS indica que o sistema foi afetado.

Ainda assim, a Microsoft informou que o conteúdo dos e-mails processados pelo Copilot Chat permanece com seus criadores e que informações de pacientes não foram expostas.

“Vazamentos de dados vão acontecer”

Ferramentas de IA corporativa, como o Microsoft 365 Copilot Chat — disponível para organizações com assinatura do Microsoft 365 — costumam contar com controles mais rígidos e proteções de segurança para evitar o compartilhamento de informações sensíveis.

Porém, para alguns especialistas, o incidente reforça os riscos de adotar ferramentas de IA generativa em certos ambientes de trabalho.

Nader Henein, analista de proteção de dados e governança em IA da Gartner, afirmou que “esse tipo de falha é inevitável”, diante do ritmo acelerado de lançamento de “capacidades novas e inovadoras de IA”.

Ele destacou que as organizações que usam esses produtos frequentemente não dispõem das ferramentas necessárias para se proteger e gerenciar cada nova funcionalidade.

“Em condições normais, as organizações simplesmente desativariam a funcionalidade e aguardariam até que a governança estivesse atualizada”, explicou Henein.

“Infelizmente, a pressão causada pela enxurrada de hype infundado em IA torna isso quase impossível”, completou.

O especialista em cibersegurança Alan Woodward, professor da Universidade de Surrey, ressaltou a importância de que essas ferramentas sejam configuradas como privadas por padrão e ativadas somente via opt-in.

“Vão inevitavelmente surgir bugs nessas ferramentas, especialmente pelo ritmo acelerado de avanços; então, mesmo que o vazamento de dados não seja intencional, ele vai acontecer”.

Publicidade

Proteja sua empresa contra hackers através de um Pentest

Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...