UE apresenta proposta polêmica
19 de Junho de 2024

Uma proposta polêmica apresentada pela União Europeia para escanear as mensagens privadas dos usuários na detecção de material de abuso sexual infantil (CSAM) representa sérios riscos para a criptografia de ponta a ponta (E2EE), alertou Meredith Whittaker, presidente da Signal Foundation, que mantém o serviço de mensagens focado em privacidade de mesmo nome.

"Exigir a varredura em massa de comunicações privadas mina fundamentalmente a criptografia.Ponto final", disse Whittaker em um comunicado na segunda-feira.

Isso aconteça por meio de adulteração, por exemplo, na geração de número aleatório de um algoritmo de criptografia, ou pela implementação de um sistema de key escrow, ou forçando as comunicações a passarem por um sistema de vigilância antes de serem criptografadas.

A resposta vem no momento em que os legisladores na Europa estão propondo regulamentações para combater o CSAM com uma nova disposição chamada "moderação de upload", que permite que mensagens sejam escrutinadas antes da criptografia.

Um relatório recente da Euractiv revelou que as comunicações de áudio estão excluídas do âmbito da lei e que os usuários devem consentir com essa detecção sob os termos e condições do provedor de serviço.

"Aqueles que não consentirem ainda podem usar partes do serviço que não envolvem o envio de conteúdo visual e URLs", relatou ainda.

A Europol, no final de abril de 2024, fez um apelo à indústria tech e aos governos para priorizar a segurança pública, advertindo que medidas de segurança como a E2EE podem impedir que as agências de aplicação da lei acessem conteúdos problemáticos, reacendendo um debate contínuo sobre o equilíbrio entre privacidade e o combate a crimes graves.

Também fez um apelo para que as plataformas projetassem sistemas de segurança de uma forma que ainda possam identificar e relatar atividades prejudiciais e ilegais para as autoridades policiais, sem entrar nos detalhes da implementação.

A fabricante do iPhone, Apple, anunciou planos famosamente para implementar a triagem do lado do cliente para o material de abuso sexual infantil (CSAM), mas abandonou a ideia no final de 2022 após uma forte reação de defensores da privacidade e segurança.

"Varredura por um tipo de conteúdo, por exemplo, abre a porta para vigilância em massa e poderia criar um desejo de procurar outros sistemas de mensagens criptografadas em tipos de conteúdo", disse a empresa na época, explicando sua decisão.

Descreveu também o mecanismo como um "caminho escorregadio de consequências não intencionais".

Whittaker, da Signal, disse ainda que chamar a abordagem de "moderação de upload" é um jogo de palavras que equivale a inserir uma backdoor (ou uma front door), criando efetivamente uma vulnerabilidade de segurança que está madura para exploração por atores maliciosos e hackers de estados-nação.

"Ou a criptografia de ponta a ponta protege todos, consagrando a segurança e a privacidade, ou está quebrada para todos", disse ela.

"E quebrar a criptografia de ponta a ponta, especialmente em um momento geopoliticamente volátil, é uma proposta desastrosa." Atualização O serviço de mensagens criptografadas Threema também se manifestou fortemente contra a chamada lei Chat Control, afirmando que a aprovação da lei poderia comprometer severamente a privacidade e confidencialidade dos cidadãos da UE e membros da sociedade civil.

"Não importa como a Comissão da UE está tentando vendê-la – como 'client-side scanning', 'moderação de upload', ou 'detecção por IA' – Chat Control é ainda vigilância em massa", disse a empresa suíça.

E independentemente de sua implementação técnica, vigilância em massa é sempre uma péssima ideia.

Publicidade

Curso gratuito de Python

O curso Python Básico da Solyd oferece uma rápida aproximação à linguagem Python com diversos projetos práticos. Indo do zero absoluto até a construção de suas primeiras ferramentas. Tenha também suporte e certificado gratuitos. Saiba mais...