A Microsoft reconheceu um erro que fez com que seu assistente de trabalho baseado em IA acessasse e resumisse, de forma equivocada, e-mails confidenciais de alguns usuários.
O gigante da tecnologia promove o Microsoft 365 Copilot Chat como uma solução segura para que empresas e colaboradores utilizem seu chatbot generativo de IA.
No entanto, um problema recente fez com que a ferramenta expusesse informações a determinados usuários corporativos a partir de mensagens armazenadas nas pastas de rascunhos e itens enviados — inclusive aquelas marcadas como confidenciais.
A Microsoft informou que já liberou uma atualização para corrigir a falha e garantiu que "não forneceu acesso a informações para pessoas sem autorização prévia para vê-las".
Especialistas, porém, alertam que a velocidade com que as empresas disputam para incluir novas funcionalidades de IA torna erros como esse praticamente inevitáveis.
O Copilot Chat pode ser usado em programas da Microsoft, como Outlook e Teams, para responder perguntas ou resumir mensagens de e-mail e conversas.
"Identificamos e resolvemos um problema em que o Microsoft 365 Copilot Chat poderia retornar conteúdo de e-mails classificados como confidenciais, criados por um usuário e armazenados nas pastas de rascunhos e itens enviados no Outlook desktop", explicou um porta-voz da Microsoft.
"Embora nossos controles de acesso e políticas de proteção de dados tenham permanecido intactos, esse comportamento não condiz com a experiência pretendida do Copilot, que é projetado para excluir conteúdo protegido do acesso da ferramenta", acrescentou.
"Uma atualização de configuração foi implementada globalmente para clientes corporativos."
A publicação citou um comunicado da Microsoft afirmando que "mensagens de e-mail dos usuários com o rótulo confidencial aplicado estavam sendo processadas incorretamente pelo Microsoft 365 Copilot Chat".
O aviso acrescentava que uma aba de trabalho dentro do Copilot Chat resumiu mensagens armazenadas nas pastas de rascunhos e itens enviados, mesmo com rótulo de sensibilidade e política de prevenção contra perda de dados configurada para bloquear compartilhamentos não autorizados.
Segundo relatos, a Microsoft detectou o erro pela primeira vez em janeiro.
O comunicado sobre o bug também foi compartilhado em um painel de suporte a trabalhadores do NHS na Inglaterra, onde a causa raiz foi atribuída a um "problema de código".
Um trecho do aviso no site de suporte de TI do NHS indica que o sistema foi afetado.
Ainda assim, a Microsoft informou que o conteúdo dos e-mails processados pelo Copilot Chat permanece com seus criadores e que informações de pacientes não foram expostas.
“Vazamentos de dados vão acontecer”
Ferramentas de IA corporativa, como o Microsoft 365 Copilot Chat — disponível para organizações com assinatura do Microsoft 365 — costumam contar com controles mais rígidos e proteções de segurança para evitar o compartilhamento de informações sensíveis.
Porém, para alguns especialistas, o incidente reforça os riscos de adotar ferramentas de IA generativa em certos ambientes de trabalho.
Nader Henein, analista de proteção de dados e governança em IA da Gartner, afirmou que “esse tipo de falha é inevitável”, diante do ritmo acelerado de lançamento de “capacidades novas e inovadoras de IA”.
Ele destacou que as organizações que usam esses produtos frequentemente não dispõem das ferramentas necessárias para se proteger e gerenciar cada nova funcionalidade.
“Em condições normais, as organizações simplesmente desativariam a funcionalidade e aguardariam até que a governança estivesse atualizada”, explicou Henein.
“Infelizmente, a pressão causada pela enxurrada de hype infundado em IA torna isso quase impossível”, completou.
O especialista em cibersegurança Alan Woodward, professor da Universidade de Surrey, ressaltou a importância de que essas ferramentas sejam configuradas como privadas por padrão e ativadas somente via opt-in.
“Vão inevitavelmente surgir bugs nessas ferramentas, especialmente pelo ritmo acelerado de avanços; então, mesmo que o vazamento de dados não seja intencional, ele vai acontecer”.
Publicidade
Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...