Corrida para impedir que agentes de IA saiam do controle com seus cartões de crédito
13 de Maio de 2026

Entre malware, falsas identidades online e sequestro de contas, já há problemas demais na segurança digital.

Com a ascensão da AI agentic, mais atividades passaram a ser executadas por agentes em nome de humanos, o que cria novos riscos de que algo saia do controle.

Agora, com contribuições iniciais do Google e da Mastercard, a FIDO Alliance, entidade do setor focada em autenticação, anunciou nesta terça-feira que vai criar dois grupos de trabalho para desenvolver padrões da indústria voltados à validação e à proteção de pagamentos e outras transações realizadas por agentes de AI.

A proposta é estabelecer uma base mínima de proteção que possa ser adotada por diferentes setores.

Com isso, os usuários poderão autorizar ações de agentes por meio de mecanismos difíceis de serem enganados por phishing ou tomados por um threat actor para enviar instruções maliciosas ao agente.

Os padrões também devem incluir ferramentas criptográficas que serviços digitais possam usar para confirmar que os agentes estão executando de forma correta e legítima as instruções de uma pessoa autenticada, além de estruturas que preservem a privacidade e permitam a usuários, comerciantes e outros prestadores de serviço validar transações iniciadas por agentes.

Em outras palavras, o objetivo é criar proteções contra o sequestro de agentes e outros comportamentos maliciosos, além de mecanismos de transparência e responsabilização para eventuais disputas.

“Os agentes estão se tornando cada vez mais comuns, estão entrando no uso corrente, mas os modelos já existentes não foram necessariamente projetados para esse tipo de paradigma.

Eles não foram criados para considerar ações realizadas em nome de um usuário”, disse Andrew Shikiar, CEO da FIDO Alliance.

Ele acrescenta: “Se olharmos para o nosso trabalho nos últimos anos em torno do enorme problema das senhas, isso começou décadas atrás.

A base de segurança do que se tornou a nossa economia conectada não era adequada para o propósito.

Agora estamos em um ponto parecido com agentes e interações agentic, comércio agentic, em que temos a oportunidade de não seguir pelo mesmo caminho e estabelecer alguns princípios fundamentais que permitam interações mais confiáveis”.

Desenvolver padrões técnicos amplamente aplicáveis entre setores e que facilitem a interoperabilidade é um processo demorado, que muitas vezes leva anos.

Mas, diante da rápida evolução e adoção da AI agentic, representantes da FIDO Alliance, do Google e da Mastercard destacaram que esse trabalho precisa avançar mais rápido.

Para isso, as duas empresas estão contribuindo com ferramentas open source para a iniciativa.

O Agent Payments Protocol, ou AP2, do Google, oferece um mecanismo para verificar criptograficamente que o usuário realmente tinha a intenção de que uma transação iniciada pelo agente acontecesse.

Já a estrutura Verifiable Intent, da Mastercard, co-desenvolvida com o Google para funcionar com o AP2, é um mecanismo seguro para que os usuários autorizem e controlem as ações do agente.

“Queremos fornecer prova criptográfica de que a transação foi autorizada pelo próprio usuário, mas mantendo isso em privado, para que exista divulgação seletiva embutida”, afirmou Stavan Parikh, vice-presidente e gerente geral de pagamentos do Google.

“Diferentes participantes do ecossistema, como plataformas, comerciantes, provedores de pagamento e redes, veem apenas as informações relevantes para eles, mas a ação correta é concluída no momento certo.

Pagamentos são um problema complexo de ecossistema”.

Parikh cita o exemplo de uma pessoa que quer comprar um par de tênis, mas descobre que o produto está esgotado.

O comprador instrui um agente de AI a comprar os tênis de forma autônoma caso eles voltem ao estoque e custem US$ 100 ou menos.

A meta é oferecer autenticação e transparência em torno dessa transação para que, se o modelo ideal de tênis voltar a aparecer, o consumidor receba o produto certo pelo preço que tinha em mente.

Estabelecer essas proteções mínimas é fundamental para promover confiança na AI agentic e incentivar a adoção de ferramentas baseadas em AI, observa Parikh.

Mesmo para quem não quer adotar capacidades de AI, a realidade da sua expansão torna inevitável a necessidade de guardrails mínimos.

Publicidade

Traçamos um caminho para você ir do zero ao avançado em hacking

Conheça a Solyd One, e tenha acesso a todos os cursos de segurança ofensiva da Solyd, todas as certificações práticas, incluindo a SYCP, 2 CTFs anuais com prêmios de até 30 mil reais, dezenas de laboratórios realísticos, suporte, comunidade e muito mais. Saiba mais...