Ao se candidatar a empregos, Angel destaca suas habilidades em idiomas.
“Falo inglês fluentemente, chinês intermediário, além de russo e turco”, diz a jovem uzbeque de 24 anos em um vídeo no formato selfie dirigido a recrutadores.
Na gravação, ela afirma ter chegado naquele dia à cidade de Sihanoukville, no Camboja, e estar pronta para começar a trabalhar imediatamente.
No entanto, essas impressionantes habilidades linguísticas provavelmente eram usadas para aplicar golpes elaborados conhecidos como “pig-butchering”, cujo principal alvo são cidadãos americanos.
Em vez de buscar um emprego corporativo convencional, Angel se candidatava para trabalhar como “AI face model”, alguém que passa o dia em frente ao computador fazendo videochamadas deepfake para enganar vítimas em fraudes.
Sua candidatura, que também pedia informações como altura e peso, afirmava que ela já acumulava “1 ano como AI model”.
Angel não está sozinha nessa atividade.
Uma investigação da WIRED analisou dezenas de vídeos de recrutamento e anúncios de emprego publicados no Telegram, revelando que pessoas de várias partes do mundo, incluindo Turquia, Rússia, Ucrânia, Bielorrússia e diversos países asiáticos, se candidataram para ser “AI models” ou “real face models” no Camboja e no Sudeste Asiático.
Essa região se tornou um polo de operações criminosas em larga escala, que mantêm milhares de vítimas de tráfico humano em cativeiro, forçando-as a operar golpes online envolvendo investimentos em criptomoedas e fraudes amorosas.
Além de coagir pessoas a trabalhar em “compounds” dedicados à fraude, essas organizações sofisticadas e bilionárias também recrutam voluntariamente candidatos interessados em “trabalhar” nessas operações.
“Desde o ano passado até hoje, eles vêm contratando pessoas para fazer AI modeling”, explica Hieu Minh Ngo, investigador de crimes cibernéticos da ONG vietnamita ChongLuaDao, dedicada ao combate a fraudes.
“Eles fornecem software para troca de rosto usando inteligência artificial, o que permite aplicar golpes românticos”, acrescenta.
Ngo, que foi hacker e hoje monitora a atividade dessas organizações enquanto apoia vítimas, identificou cerca de 20 canais no Telegram que anunciam vagas para AI models na região.
A Humanity Research Consultancy, organização anti-tráfico humano, também rastreou pessoas se candidatando a empregos como “modelos” e “AI models” nas chamadas “cidades centrais de golpes”, incluindo o caso de Angel.
O crescimento dos AI models ocorre em meio à adoção crescente da inteligência artificial por cibercriminosos, que usam a técnica de face-swapping para aprimorar suas fraudes online.
Normalmente, os golpistas criam perfis falsos para abordar vítimas em redes sociais ou aplicativos de mensagem, utilizando imagens roubadas de celebridades ou pessoas atraentes para despertar o interesse.
Após o contato inicial, eles bombardeiam a vítima com atenção, criando um vínculo emocional antes de tentar extorquir dinheiro.
Em alguns casos, várias pessoas controlam a conta de forma fraudulenta, mantendo uma única identidade falsa.
Quando a vítima solicita uma videochamada para confirmar a autenticidade da pessoa, entram em cena os deepfakes e as chamadas manipuladas com rostos trocados.
Alguns centros de golpe no Sudeste Asiático possuem “salas de AI” dedicadas exclusivamente a realizar essas chamadas.
Os anúncios de emprego para AI models ou “modelos reais” analisados pela WIRED revelam jornadas exaustivas, com poucas horas livres e rotina intensa.
Os anúncios, geralmente publicados por administradores de canais, não trazem contatos pessoais nem especificam os empregadores.
Em uma oferta para um contrato de seis meses, por exemplo, o candidato devia enviar fotos diariamente, realizar chamadas de vídeo e voz, além de criar mensagens em áudio e vídeo.
O anúncio estipulava cerca de “100 video calls por dia”.
Publicidade
Nossa audiência é formada por analistas, pentesters, decisores e entusiastas que consomem nossas notícias todo dia pelo Site, Newsletter e Instagram. Fale com quem realmente importa para o seu negócio. Anuncie aqui. Saiba mais...