Google lança 'Private AI Compute' para processamento seguro de IA com privacidade no dispositivo
12 de Novembro de 2025

Na última terça-feira, o Google apresentou uma nova tecnologia que promete elevar a privacidade no processamento de consultas de inteligência artificial (AI) na nuvem: o Private AI Compute.

A plataforma foi desenvolvida para liberar toda a potência e velocidade dos modelos Gemini na nuvem, garantindo que os dados pessoais dos usuários permaneçam privados e inacessíveis até mesmo para o próprio Google.

O objetivo é oferecer um ambiente seguro e reforçado, semelhante ao processamento realizado diretamente nos dispositivos, mas com capacidades ampliadas de AI.

O Private AI Compute é impulsionado pelas unidades Trillium Tensor Processing Units (TPUs) e pelas Titanium Intelligence Enclaves (TIE).

Essa combinação permite à empresa executar seus modelos avançados com total segurança e respeito à privacidade.

Na prática, a tecnologia une o desempenho e a escalabilidade da nuvem à proteção típica do processamento local.

As cargas de trabalho em CPU e TPU, chamadas trusted nodes, operam em um ambiente Trusted Execution Environment (TEE) baseado em hardware AMD, que criptografa e isola a memória do sistema hospedeiro.

Apenas processos devidamente atestados podem ser executados, e o acesso administrativo é bloqueado.

Além disso, esses nodes são protegidos contra ataques físicos que tentem extrair dados.

A infraestrutura também suporta a atestação e a criptografia ponta a ponta entre os nodes confiáveis.

Isso assegura que os dados do usuário sejam descriptografados e processados somente dentro de um ambiente seguro e isolado, longe do restante da infraestrutura do Google.

Cada tarefa valida criptograficamente as credenciais da outra, garantindo confiança mútua.

Caso a validação falhe, a conexão é automaticamente bloqueada, protegendo as informações contra componentes não confiáveis.

O fluxo de trabalho começa com a criação de uma conexão criptografada via protocolo Noise entre o cliente e o servidor front-end, que realiza atestação bidirecional.

O cliente também confirma a identidade do servidor por meio de uma sessão Oak criptografada end-to-end, garantindo autenticidade e integridade.

Em seguida, o servidor estabelece um canal criptografado Application Layer Transport Security (ALTS) com outros serviços da cadeia de inferência, que se comunicam com servidores de modelo rodando na plataforma TPU reforçada.

O sistema é projetado para ser efêmero: qualquer ataque que obtenha acesso privilegiado não terá acesso a dados anteriores, já que todas as entradas, inferências e cálculos são descartados ao final da sessão do usuário.

Para manter a segurança e integridade, o Google adotou diversas medidas, entre elas:

- Redução dos componentes e entidades que precisam ser confiáveis para garantir a confidencialidade dos dados;

- Uso de Confidential Federated Compute para coleta de análises e insights agregados;

- Criptografia nas comunicações cliente-servidor;

- Binary authorization para garantir que somente código assinado e autorizado seja executado dentro da cadeia de suprimentos de software;

- Isolamento dos dados do usuário em máquinas virtuais (VMs) para conter eventuais comprometimentos;

- Proteções contra extração física de dados por meio de criptografia da memória e gerenciamento de entrada/saída (IOMMU);

- Proibição total do acesso shell na plataforma TPU;

- Utilização de relays de IP blinding operados por terceiros para tunelamento do tráfego, ocultando a verdadeira origem das requisições;

- Separação dos sistemas de autenticação e autorização da inferência, utilizando Anonymous Tokens.

O NCC Group, empresa especializada em segurança cibernética, realizou uma avaliação externa do Private AI Compute entre abril e setembro de 2025.

Identificaram uma vulnerabilidade tipo side channel baseada em tempo no componente de IP blinding relay, que poderia expor os usuários em certas condições.

No entanto, o Google considera o risco baixo, devido ao alto nível de ruído gerado pelo ambiente multiusuário, que dificulta associar consultas a usuários específicos.

Além disso, o NCC Group apontou três falhas na implementação do mecanismo de atestação que poderiam causar negação de serviço (DoS) e outros ataques de protocolo.

O Google já trabalha nas correções dessas questões.

Embora todo o sistema dependa de hardware proprietário e esteja centralizado na plataforma Borg Prime, o Google assegura que as chances de exposição de dados a acessos não autorizados são minimizadas.

A empresa destaca que os usuários se beneficiam de alto nível de proteção contra insiders mal-intencionados.

Esse lançamento acompanha iniciativas semelhantes já implementadas por empresas como Apple e Meta, que também investem em soluções como Private Cloud Compute (PCC) e Private Processing para processar consultas de AI preservando a privacidade, sem depender exclusivamente dos dispositivos móveis.

Jay Yagnik, vice-presidente de Inovação e Pesquisa em AI do Google, reforça: “A atestação remota e a criptografia conectam seu dispositivo a um ambiente em nuvem seguro e selado por hardware, permitindo que os modelos Gemini processem seus dados de forma protegida.

Isso garante que os dados sensíveis tratados pelo Private AI Compute estejam acessíveis apenas a você, sem que ninguém mais, nem mesmo o Google, tenha acesso.”

Publicidade

Contrate hackers éticos para seu time

A Solyd Hunter encontra, valida e entrega os melhores profissionais de Cibersegurança, Red Team, AppSec e Pentest para sua empresa com garantia e agilidade. Clique aqui e contrate com segurança. Saiba mais...