A Autoridade Nacional de Proteção de Dados do Brasil determinou nesta terça-feira(02) que a Meta, empresa-mãe do Instagram e do Facebook, não pode usar dados originários do país para treinar sua inteligência artificial.
A política de privacidade atualizada da Meta permite que a empresa utilize publicações públicas das pessoas em seus sistemas de IA. Essa prática, no entanto, não será permitida no Brasil.
A decisão decorre do "risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares dos dados afetados", disse a agência no Diário Oficial da União.
O Brasil é um dos maiores mercados da Meta. Somente o Facebook tem cerca de 102 milhões de usuários ativos no país, segundo a agência. O país tem uma população de 203 milhões, de acordo com o censo de 2022.
Um porta-voz da Meta disse em um comunicado que a empresa está "desapontada" e insiste que seu método "cumpre as leis e regulamentos de privacidade no Brasil".
“Este é um retrocesso para a inovação, a concorrência no desenvolvimento de IA e adia ainda mais os benefícios da IA para as pessoas no Brasil”, acrescentou o porta-voz.
A empresa de mídia social também encontrou resistência à sua atualização de política de privacidade na Europa, onde recentemente suspendeu seus planos de começar a usar publicações públicas para treinar sistemas de IA — o que estava previsto para começar na semana passada.
Nos EUA, onde não há uma lei nacional que proteja a privacidade online, esse treinamento já está acontecendo.
Em maio, a Meta afirmou em seu blog brasileiro que poderia “usar informações que as pessoas compartilharam publicamente sobre produtos e serviços da Meta para alguns de nossos recursos de IA generativa”, o que poderia incluir “publicações ou fotos públicas e suas legendas”.
A recusa em participar é possível, disse a Meta naquele comunicado. Apesar dessa opção, há “obstáculos excessivos e injustificados para acessar as informações e exercer” o direito de exclusão, afirmou a agência em comunicado.
A Meta não forneceu informações suficientes para permitir que as pessoas estejam cientes das possíveis consequências de usar seus dados pessoais para o desenvolvimento de IA generativa, acrescentou.
A Meta não é a única empresa que tentou treinar seus sistemas de IA com dados de brasileiros.
A Human Rights Watch divulgou um relatório no mês passado que constatou que fotos pessoais de crianças brasileiras identificáveis, provenientes de um grande banco de dados de imagens online — retiradas de blogs de pais, sites de fotógrafos profissionais de eventos e sites de compartilhamento de vídeos como o YouTube — estavam sendo usadas para criar ferramentas de geração de imagens por IA sem o conhecimento das famílias.
Em alguns casos, essas ferramentas foram usadas para criar imagens geradas por IA de nudez.
Hye Jung Han, pesquisadora do grupo de direitos humanos baseada no Brasil, disse em um e-mail na terça-feira que a ação do regulador “ajuda a proteger as crianças de se preocuparem que seus dados pessoais, compartilhados com amigos e familiares nas plataformas da Meta, possam ser usados para causar danos a elas de maneiras impossíveis de antecipar ou prevenir”.
Mas a decisão em relação à Meta “muito provavelmente” incentivará outras empresas a não serem transparentes no uso de dados no futuro, disse Ronaldo Lemos, do Instituto de Tecnologia e Sociedade do Rio de Janeiro, um think tank.
“A Meta foi severamente punida por ser a única entre as empresas Big Tech a notificar claramente e com antecedência em sua política de privacidade que usaria dados de suas plataformas para treinar inteligência artificial”, disse ele.
A conformidade deve ser demonstrada pela empresa dentro de cinco dias úteis a partir da notificação da decisão, e a agência estabeleceu uma multa diária de 50.000 reais (US$ 8.820) por descumprimento.
Publicidade
Imagine voltar ao tempo dos e-zines e poder desfrutar de uma boa revista contendo as últimas novidades, mas na pegada hacking old school.
Acesse gratuitamente o Cyberpunk Guide e fique por dentro dos mais modernos dispositivos usados pelos hackers.
Saiba mais...