ChatGPT Atlas: riscos em browsers
23 de Outubro de 2025

O lançamento do ChatGPT Atlas, novo navegador da OpenAI focado em automação de tarefas, revelou vulnerabilidades preocupantes em navegadores baseados em inteligência artificial.

Um relatório da Brave Software, empresa conhecida pelo navegador voltado à privacidade, identificou falhas críticas não apenas no ChatGPT Atlas, mas também em outras soluções semelhantes, como Comet (da Perplexity) e Fellou.

Essas vulnerabilidades permitem que sites maliciosos executem comandos ocultos por meio de imagens ou textos invisíveis, comprometendo dados pessoais, senhas, arquivos e até contas bancárias dos usuários.

O problema está relacionado a ataques do tipo prompt injection, nos quais instruções abusivas são “injetadas” em conteúdos interpretados pelos navegadores de IA.

No caso do Comet, por exemplo, pesquisadores detectaram que comandos quase imperceptíveis podem estar escondidos em imagens de páginas da web.

Ao capturar a tela e enviar a imagem para análise da IA, o navegador interpreta o texto oculto como um comando legítimo, permitindo que invasores controlem ações remotamente.

No Fellou, basta que o usuário acesse um site comprometido para que o navegador processe automaticamente instruções maliciosas embutidas no conteúdo da página, já que alguns navegadores enviam o texto completo para o modelo de linguagem sem diferenciar o que veio do usuário ou do site.

Segundo a Brave, essas falhas quebram fundamentos tradicionais da segurança na web, como a política de mesma origem (same-origin policy).

Isso ocorre porque os navegadores com IA operam com os mesmos privilégios autenticados do usuário, concedendo a comandos ocultos acesso potencial a dados sigilosos, como contas bancárias e e-mails corporativos.

“Se você estiver conectado a contas confidenciais, como banco ou provedor de e-mail, no navegador, simplesmente resumir uma publicação do Reddit pode permitir que um invasor roube dinheiro ou informações privadas”, alertam os especialistas.

Para mitigar esses riscos, a OpenAI adotou o framework Guardrails, lançado em outubro junto ao AgentKit — um conjunto de ferramentas para desenvolvedores de agentes de IA.

Ainda assim, especialistas destacam que não existe solução definitiva para as injeções de prompt e que a navegação assistida por agentes de IA (agentic browsing) continua inerentemente insegura enquanto não houver melhorias estruturais significativas.

Uma das recomendações é manter essa funcionalidade isolada da navegação comum, exigindo confirmação explícita do usuário antes de executar qualquer ação sensível.

Especialistas em cibersegurança, como a empresa HiddenLayer, reforçam a gravidade do cenário.

Mesmo chatbots aparentemente inofensivos podem ser manipulados para abrir documentos privados, enviar e-mails ou acessar dados confidenciais sem autorização.

Com o avanço de navegadores baseados em IA como ChatGPT Atlas, Comet e Fellou, cresce a necessidade de protocolos de segurança mais robustos, capazes de acompanhar a autonomia crescente dessas ferramentas.

Até que soluções universais sejam implementadas, a recomendação é evitar o uso desses navegadores para atividades sensíveis e manter a autenticação em duas etapas ativada em todas as contas.

Embora essas soluções facilitem tarefas diárias, a inteligência artificial amplia a superfície de ataque digital, exigindo maior cautela e conscientização, tanto dos usuários quanto dos desenvolvedores.

Publicidade

Contrate hackers éticos para seu time

A Solyd Hunter encontra, valida e entrega os melhores profissionais de Cibersegurança, Red Team, AppSec e Pentest para sua empresa com garantia e agilidade. Clique aqui e contrate com segurança. Saiba mais...