Os golpes de clonagem de voz já afetaram uma em cada quatro pessoas no mundo
4 de Maio de 2023

No Brasil, o antigo "golpe do impostor", frequentemente usado em simulações de sequestro de familiares, recebeu a ajuda da inteligência artificial.

Com a crescente disponibilização pública de ferramentas de IA, também estão aumentando as fraudes, com uma em cada quatro pessoas no mundo já tendo sido afetada, resultando em perdas financeiras.

Essa é a conclusão de um relatório da empresa de segurança McAfee, que avaliou os riscos desse tipo de fraude, que é uma realidade e não uma tendência.

10% dos participantes do estudo afirmaram ter sido alvo direto, enquanto outros 15% disseram que um conhecido foi atingido.

Em 77% dos casos, houve perda financeira, e uma em cada 10 vítimas alegou ter sido fraudada em mais de US$ 5 mil, ou cerca de R$ 25 mil.

A Índia é o país com maior incidência desse tipo de crime, com 47% das pessoas afirmando terem sido alvo do golpe do impostor.

Os Estados Unidos aparecem em segundo lugar, com 14%, enquanto o Reino Unido aparece em terceiro, com 8%.

O Brasil não fez parte da lista de países em que a McAfee conduziu as pesquisas, e ainda não há dados sobre esse tipo de fraude no país.

Por outro lado, o golpe mais comum é a solicitação de dinheiro em situações de emergência, como acidentes de carro, roubos, perda de carteiras ou celulares e situações complicadas em viagens.

Os bandidos usam essas situações para convencer as vítimas.

Entre os familiares, as pessoas são mais propensas a acreditar em um contato desse tipo vindo de cônjuges, mães e filhos.

De acordo com o levantamento da McAfee, pessoas mais velhas são mais propensas a cair em golpes de clonagem de voz, com pais e avós sendo as principais vítimas.

Uma menor intimidade com a tecnologia e o funcionamento de fraudes desse tipo é o principal motivo, exatamente como acontece nos casos de falso sequestro, amplamente conhecidos dos brasileiros.

A McAfee aponta que, com a evolução veloz da tecnologia, separar o que é verdadeiro das fraudes se tornou cada vez mais complexo.

A IA seria capaz de reproduzir a fala de alguém com 95% de precisão a partir de uma amostra de somente três segundos, que pode ser amplamente encontrada em publicações em redes sociais.

Quando se fala de criadores de conteúdo, então, o volume de dados é absurdamente maior.

Os dados do estudo apontam que, em todo o mundo, 26% compartilham a própria voz na internet pelo menos uma vez por semana.

Na outra ponta, 70% dos entrevistados na pesquisa afirmaram não saber se seriam capazes de diferenciar uma voz criada por inteligência artificial da versão real, em todo um público amplamente suscetível a cair em fraudes assim.

“O golpe do impostor não é novo, mas a disponibilidade de ferramentas avançadas de inteligência artificial está mudando o jogo para os cibercriminosos”, aponta Steve Grobman, diretor de tecnologia da McAfee.

“A tecnologia brinca com a conexão emocional e cria um senso de urgência, aumentando a chance de cair em um golpe.”

Como recomendação de segurança, a empresa de cibersegurança recomenda combinar uma senha verbal com familiares e amigos próximos, que deve ser citada em pedidos de dinheiro ou ajuda em emergências.

Manter a calma nestes momentos, prestando atenção nos detalhes — ou na ausência deles — também ajuda a discernir uma ligação legítima de uma falsa.

A McAfee também recomenda atenção a ligações que venham de números desconhecidos, mas com uma pessoa próxima do outro lado da linha.

Fazer perguntas pessoais ajuda a confirmar a identidade, enquanto outro caminho para a segurança é simplesmente desligar a chamada e tentar acionar a pessoa a partir de um número ou aplicativo de confiança.

Publicidade

Já viu o Cyberpunk Guide?

Imagine voltar ao tempo dos e-zines e poder desfrutar de uma boa revista contendo as últimas novidades, mas na pegada hacking old school.
Acesse gratuitamente o Cyberpunk Guide e fique por dentro dos mais modernos dispositivos usados pelos hackers. Saiba mais...