IA da Google previne exploração de Falha no SQLite
16 de Julho de 2025

Na última terça-feira(15), o Google revelou que seu framework de descoberta de vulnerabilidades assistido por modelo de linguagem de grande escala (LLM) identificou um defeito de segurança no motor de banco de dados de código aberto SQLite antes que pudesse ser explorado em ambiente real.

A vulnerabilidade, registrada como CVE-2025-6965 (pontuação CVSS: 7.2), é um defeito de corrupção de memória que afeta todas as versões anteriores à 3.50.2.

Foi descoberta pelo Big Sleep, um agente de inteligência artificial (AI) lançado pelo Google no ano passado como parte de uma colaboração entre a DeepMind e o Google Project Zero.

"Um atacante que consiga injetar comandos SQL arbitrários em uma aplicação pode ser capaz de causar um estouro de inteiro, resultando em leitura fora dos limites de um array," disseram os mantenedores do projeto SQLite em um comunicado.

O gigante da tecnologia descreveu o CVE-2025-6965 como um problema crítico de segurança que "era conhecido apenas pelos atores de ameaça e corria o risco de ser explorado." O Google não revelou quem eram os atores da ameaça.

"Através da combinação da inteligência de ameaças e do Big Sleep, o Google conseguiu prever que uma vulnerabilidade estava iminentemente prestes a ser utilizada e nós conseguimos interrompê-la antecipadamente," disse Kent Walker, Presidente de Assuntos Globais do Google e da Alphabet.

Acreditamos que esta seja a primeira vez que um agente de AI é utilizado para impedir diretamente tentativas de exploração de uma vulnerabilidade em ambiente real.

Em outubro de 2024, o Big Sleep estava por trás da descoberta de outra falha no SQLite, uma vulnerabilidade de underflow de buffer de pilha que poderia ser explorada para causar um travamento ou execução de código arbitrário.

Coincidindo com o desenvolvimento, o Google também publicou um white paper para construir agentes de AI seguros, de modo que eles tenham controladores humanos bem definidos, suas capacidades sejam cuidadosamente limitadas para evitar ações desonestas e a divulgação de dados sensíveis, e que suas ações sejam observáveis e transparentes.

"As abordagens tradicionais de segurança de sistemas (como restrições às ações dos agentes implementadas por meio de software clássico) carecem da conscientização contextual necessária para agentes versáteis e podem restringir excessivamente a utilidade," disseram Santiago (Sal) Díaz, Christoph Kern e Kara Olive do Google.

Por outro lado, a segurança baseada puramente em raciocínio (reliando somente no julgamento do modelo de AI) é insuficiente porque os LLMs atuais permanecem suscetíveis a manipulações como injeção de prompt e ainda não podem oferecer garantias robustas o suficiente.

Para mitigar os principais riscos associados à segurança do agente, a empresa disse que adotou uma abordagem híbrida de defesa em profundidade que combina os pontos fortes de controles tradicionais e determinísticos com defesas dinâmicas e baseadas em raciocínio.

A ideia é criar limites robustos em torno do ambiente operacional do agente de modo que o risco de resultados prejudiciais seja significativamente mitigado, especificamente ações maliciosas realizadas como resultado de injeção de prompt.

"Esta abordagem de defesa em profundidade depende de limites reforçados em torno do ambiente operacional do agente de AI para prevenir cenários potencialmente piores, atuando como barreiras mesmo que o processo de raciocínio interno do agente se torne comprometido ou desalinhado por ataques sofisticados ou entradas inesperadas," disse o Google.

Esta abordagem multinível reconhece que nem sistemas puramente baseados em regras nem julgamentos puramente baseados em AI são suficientes por si só.

Publicidade

Proteja sua empresa contra hackers através de um Pentest

Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...