Novo Relatório: Conteúdo de Abuso Sexual Infantil e Riscos Online para Crianças em Ascensão
11 de Outubro de 2023

Certos riscos online para crianças estão em ascensão, de acordo com um relatório recente da Thorn, uma organização sem fins lucrativos de tecnologia cuja missão é desenvolver tecnologias para proteger crianças do abuso sexual.

Pesquisas compartilhadas no relatório Tendências Emergentes em Abuso Sexual Infantil Online 2023 indicam que menores estão cada vez mais tirando e compartilhando imagens sexuais de si mesmos.

Essa atividade pode ocorrer de maneira consensual ou coercitiva, pois os jovens também relatam um aumento nas interações online arriscadas com adultos.


"Em nosso mundo digitalmente conectado, o material de abuso sexual infantil é facilmente e cada vez mais compartilhado nas plataformas que usamos em nosso dia a dia", disse John Starr, vice-presidente de Impacto Estratégico na Thorn.

"As interações prejudiciais entre jovens e adultos não são isoladas nos cantos obscuros da web.

Tão rápido quanto a comunidade digital constrói plataformas inovadoras, os predadores estão se apropriando desses espaços para explorar crianças e compartilhar esse conteúdo ultrajante".

Essas tendências e outras compartilhadas no relatório Tendências Emergentes na linha com o que outras organizações de segurança infantil estão relatando.

O Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) 's CyberTipline viu um aumento de 329% nos arquivos de material de abuso sexual infantil (CSAM) relatados nos últimos cinco anos.

Somente em 2022, o NCMEC recebeu mais de 88,3 milhões de arquivos CSAM.

Vários fatores podem estar contribuindo para o aumento nos relatórios:
- Mais plataformas estão implantando ferramentas, como o produto Safer da Thorn, para detectar CSAM conhecido usando hash e correspondência.

- Predadores online são mais descarados e usam tecnologias novas, como chatbots, para ampliar sua sedução.

De 2021 a 2022, o NCMEC viu um aumento de 82% nos relatórios de sedução online de crianças para atos sexuais.

- O CSAM gerado por si mesmo (SG-CSAM) está em ascensão.

De 2021 a 2022, a Internet Watch Foundation observou um aumento de 9% no SG-CSAM.

Este conteúdo é um risco potencial para todas as plataformas que hospedam conteúdo gerado pelo usuário, seja uma foto de perfil ou amplos espaços de armazenamento em nuvem.

Apenas a tecnologia pode lidar com a escala deste problema
A correspondência de hash é uma das peças de tecnologia mais importantes que as empresas de tecnologia podem utilizar para ajudar a manter os usuários e as plataformas protegidas dos riscos de hospedar esse conteúdo, enquanto também ajuda a interromper a disseminação viral do CSAM e os ciclos de revitimização.

Milhões de arquivos CSAM são compartilhados online todos os anos.

Uma grande parte desses arquivos consiste em CSAM relatado e verificado anteriormente.

Como o conteúdo é conhecido e já foi adicionado anteriormente a uma lista de hash de ONGs, ele pode ser detectado usando hash e correspondência.

Simplesmente, a correspondência de hash é uma maneira programática de detectar CSAM e impedir sua disseminação online.

Dois tipos de hash são comumente usados: hash perceptual e hash criptográfico.

Ambas as tecnologias convertem um arquivo em uma sequência única de números chamada valor de hash.

É como uma impressão digital digital para cada conteúdo.

Para detectar CSAM, o conteúdo é hash e os valores de hash resultantes são comparados com listas de hash de CSAM conhecido.

Essa metodologia permite que as empresas de tecnologia identifiquem, bloqueiem ou removam esse conteúdo ilícito de suas plataformas.

A correspondência de hash é a base da detecção de CSAM.

Porque depende da correspondência contra listas de hash de conteúdo relatado e verificado anteriormente, o número de valores de hash de CSAM conhecidos no banco de dados contra o qual uma empresa faz a correspondência é crítico.

Safer, uma ferramenta para detecção proativa de CSAM desenvolvida pela Thorn, oferece acesso a um grande banco de dados agregando mais de 29 milhões de valores de hash de CSAM conhecidos.

Safer também permite que empresas de tecnologia compartilhem listas de hash entre si (mencionadas ou anonimamente), ampliando ainda mais o corpus de CSAM conhecido, o que ajuda a interromper sua disseminação viral.

Para eliminar o CSAM da internet, empresas de tecnologia e ONGs têm cada um seu papel a desempenhar.

"Plataformas que hospedam conteúdo são parceiras essenciais e a Thorn está comprometida em empoderar a indústria tecnológica com ferramentas e recursos para combater o abuso sexual infantil em larga escala", acrescentou Starr.

"Trata-se de salvaguardar nossas crianças.

Também trata-se de ajudar as plataformas tecnológicas a protegerem seus usuários e a si mesmas do risco de hospedar esse conteúdo.

Com as ferramentas corretas, a internet pode ser mais segura".
Em 2022, a Safer processou mais de 42,1 bilhões de imagens e vídeos para seus clientes.

Isso resultou em 520.000 arquivos de CSAM conhecidos encontrados em suas plataformas.

Até agora, mais de dois milhões de peças de CSAM foram identificadas nas plataformas graças à ajuda do Safer.

Quanto mais plataformas utilizarem ferramentas de detecção de CSAM, maior a chance de reverter a alarmante ascensão do material de abuso sexual infantil online.

Publicidade

Curso gratuito de Python

O curso Python Básico da Solyd oferece uma rápida aproximação à linguagem Python com diversos projetos práticos. Indo do zero absoluto até a construção de suas primeiras ferramentas. Tenha também suporte e certificado gratuitos. Saiba mais...