Normalmente, tudo começa com uma foto baixada de uma rede social.
Em todo o mundo, adolescentes estão salvando imagens de meninas que conhecem da escola, tiradas do Instagram e do Snapchat, e usando aplicativos maliciosos de “nudify” para criar fotos ou vídeos falsos de nudez.
Esses deepfakes podem ser compartilhados rapidamente por toda a escola, deixando as vítimas humilhadas, violadas, sem esperança e com medo de que as imagens as assombrem para sempre.
A crise de deepfakes que atinge escolas começou de forma discreta há alguns anos, mas cresceu de maneira expressiva à medida que a tecnologia para criar imagens explícitas se tornou mais acessível.
Segundo uma revisão de casos divulgados publicamente, publicação voltada à enganação digital e à desinformação, incidentes de abuso sexual com deepfakes já atingiram cerca de 90 escolas no mundo e impactaram mais de 600 alunos.
Os dados mostram que, desde 2023, estudantes, na maioria meninos do ensino médio, em pelo menos 28 países, foram acusados de usar IA generativa para mirar colegas com deepfakes sexualizados.
As imagens explícitas, que envolvem menores de idade, são consideradas material de abuso sexual infantil, ou CSAM.
Esta análise acredita-se ser a primeira a reunir casos reais de abuso com deepfakes de IA ocorridos em escolas ao redor do mundo.
No conjunto, o levantamento evidencia o alcance global da tecnologia nociva de nudificação por IA, que pode render milhões de dólares por ano aos seus criadores, e mostra que, em muitos casos, escolas e autoridades policiais ainda não estão preparadas para responder a incidentes graves de abuso sexual.
Na América do Norte, houve quase 30 casos relatados de abuso sexual com deepfakes desde 2023, incluindo um com mais de 60 supostas vítimas, outro em que a vítima foi temporariamente suspensa da escola e outros em que alunos de várias instituições teriam sido alvo ao mesmo tempo.
Na América do Sul, mais de 10 casos foram divulgados publicamente, mais de 20 ocorreram na Europa, e outros 12 foram registrados na Austrália e no Leste Asiático somados.
A dimensão real do abuso sexual com deepfakes nas escolas provavelmente é muito maior.
Uma pesquisa da agência da ONU para a infância, a Unicef, estima que 1,2 milhão de crianças tiveram deepfakes sexuais criados contra elas no último ano.
Um em cada cinco jovens na Espanha afirmou a pesquisadores da Save the Children que nudes falsos com deepfakes haviam sido produzidos sobre eles.
O grupo de proteção infantil Thorn constatou que um em cada oito adolescentes conhece alguém que foi alvo, e, em 2024, 15% dos estudantes ouvidos pelo Center for Democracy and Technology disseram saber de deepfakes gerados por IA ligados à sua escola.
“Acho difícil encontrar uma escola que não tenha sido afetada por isso”, disse Lloyd Richardson, diretor de tecnologia do Canadian Centre for Child Protection.
“O mais importante é como conseguimos ajudar as vítimas quando isso acontece, porque os efeitos podem ser imensos.”
A análise considerou incidentes divulgados publicamente com detalhes específicos, como a localização das escolas e o número estimado de possíveis vítimas.
Em sua maioria, trata-se de reportagens em inglês, com falta de dados disponíveis para muitos países.
Muitos casos nunca chegam à imprensa.
Quando são noticiados, nem sempre incluem detalhes específicos e podem acabar sendo tratados de forma reservada por escolas e autoridades policiais.
Publicidade
Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...