Na última terça-feira, o Google apresentou uma nova tecnologia que promete elevar a privacidade no processamento de consultas de inteligência artificial (AI) na nuvem: o Private AI Compute.
A plataforma foi desenvolvida para liberar toda a potência e velocidade dos modelos Gemini na nuvem, garantindo que os dados pessoais dos usuários permaneçam privados e inacessíveis até mesmo para o próprio Google.
O objetivo é oferecer um ambiente seguro e reforçado, semelhante ao processamento realizado diretamente nos dispositivos, mas com capacidades ampliadas de AI.
O Private AI Compute é impulsionado pelas unidades Trillium Tensor Processing Units (TPUs) e pelas Titanium Intelligence Enclaves (TIE).
Essa combinação permite à empresa executar seus modelos avançados com total segurança e respeito à privacidade.
Na prática, a tecnologia une o desempenho e a escalabilidade da nuvem à proteção típica do processamento local.
As cargas de trabalho em CPU e TPU, chamadas trusted nodes, operam em um ambiente Trusted Execution Environment (TEE) baseado em hardware AMD, que criptografa e isola a memória do sistema hospedeiro.
Apenas processos devidamente atestados podem ser executados, e o acesso administrativo é bloqueado.
Além disso, esses nodes são protegidos contra ataques físicos que tentem extrair dados.
A infraestrutura também suporta a atestação e a criptografia ponta a ponta entre os nodes confiáveis.
Isso assegura que os dados do usuário sejam descriptografados e processados somente dentro de um ambiente seguro e isolado, longe do restante da infraestrutura do Google.
Cada tarefa valida criptograficamente as credenciais da outra, garantindo confiança mútua.
Caso a validação falhe, a conexão é automaticamente bloqueada, protegendo as informações contra componentes não confiáveis.
O fluxo de trabalho começa com a criação de uma conexão criptografada via protocolo Noise entre o cliente e o servidor front-end, que realiza atestação bidirecional.
O cliente também confirma a identidade do servidor por meio de uma sessão Oak criptografada end-to-end, garantindo autenticidade e integridade.
Em seguida, o servidor estabelece um canal criptografado Application Layer Transport Security (ALTS) com outros serviços da cadeia de inferência, que se comunicam com servidores de modelo rodando na plataforma TPU reforçada.
O sistema é projetado para ser efêmero: qualquer ataque que obtenha acesso privilegiado não terá acesso a dados anteriores, já que todas as entradas, inferências e cálculos são descartados ao final da sessão do usuário.
Para manter a segurança e integridade, o Google adotou diversas medidas, entre elas:
- Redução dos componentes e entidades que precisam ser confiáveis para garantir a confidencialidade dos dados;
- Uso de Confidential Federated Compute para coleta de análises e insights agregados;
- Criptografia nas comunicações cliente-servidor;
- Binary authorization para garantir que somente código assinado e autorizado seja executado dentro da cadeia de suprimentos de software;
- Isolamento dos dados do usuário em máquinas virtuais (VMs) para conter eventuais comprometimentos;
- Proteções contra extração física de dados por meio de criptografia da memória e gerenciamento de entrada/saída (IOMMU);
- Proibição total do acesso shell na plataforma TPU;
- Utilização de relays de IP blinding operados por terceiros para tunelamento do tráfego, ocultando a verdadeira origem das requisições;
- Separação dos sistemas de autenticação e autorização da inferência, utilizando Anonymous Tokens.
O NCC Group, empresa especializada em segurança cibernética, realizou uma avaliação externa do Private AI Compute entre abril e setembro de 2025.
Identificaram uma vulnerabilidade tipo side channel baseada em tempo no componente de IP blinding relay, que poderia expor os usuários em certas condições.
No entanto, o Google considera o risco baixo, devido ao alto nível de ruído gerado pelo ambiente multiusuário, que dificulta associar consultas a usuários específicos.
Além disso, o NCC Group apontou três falhas na implementação do mecanismo de atestação que poderiam causar negação de serviço (DoS) e outros ataques de protocolo.
O Google já trabalha nas correções dessas questões.
Embora todo o sistema dependa de hardware proprietário e esteja centralizado na plataforma Borg Prime, o Google assegura que as chances de exposição de dados a acessos não autorizados são minimizadas.
A empresa destaca que os usuários se beneficiam de alto nível de proteção contra insiders mal-intencionados.
Esse lançamento acompanha iniciativas semelhantes já implementadas por empresas como Apple e Meta, que também investem em soluções como Private Cloud Compute (PCC) e Private Processing para processar consultas de AI preservando a privacidade, sem depender exclusivamente dos dispositivos móveis.
Jay Yagnik, vice-presidente de Inovação e Pesquisa em AI do Google, reforça: “A atestação remota e a criptografia conectam seu dispositivo a um ambiente em nuvem seguro e selado por hardware, permitindo que os modelos Gemini processem seus dados de forma protegida.
Isso garante que os dados sensíveis tratados pelo Private AI Compute estejam acessíveis apenas a você, sem que ninguém mais, nem mesmo o Google, tenha acesso.”
Publicidade
A Solyd Hunter encontra, valida e entrega os melhores profissionais de Cibersegurança, Red Team, AppSec e Pentest para sua empresa com garantia e agilidade. Clique aqui e contrate com segurança. Saiba mais...