Imagens falsas e de teor sexual da cantora Taylor Swift se tornaram virais nas redes sociais nesta semana.
Os conteúdos são deepfakes, uma tecnologia de IA usada para criar fotos e vídeos falsos de pessoas reais.
Embora plataformas online, como o X/Twitter (onde as fotos foram compartilhadas), não permitam a publicação desse tipo de conteúdo, especialistas revelam que as medidas de proteção não têm impacto na prática e expõem problemas da IA.
As imagens falsas de Taylor Swift surgiram em um canal de mensagens no Telegram, mas rapidamente se espalharam para outras redes sociais.
No X/Twitter, elas foram visualizadas 47 milhões de vezes antes da conta que as publicou ser suspensa na quinta-feira (25).
Porém, o conteúdo já havia se tornado viral e chegou a outras redes sociais, além de ser compartilhado novamente por outros perfis, alguns dos quais também foram suspensos.
O X afirmou que estava trabalhando para remover as imagens e limitar o compartilhamento.
A plataforma ainda enfrenta dificuldade em controlar o alcance das deepfakes e outros conteúdos de ódio, principalmente após Elon Musk assumir o comando e flexibilizar restrições e moderação de conteúdo.
Enquanto isso, fãs da cantora solicitaram por proteção e viralizaram as palavras-chave “Protejam Taylor Swift”.
Conforme a IA se popularizou e as deepfakes começaram a aparecer, os desenvolvedores rapidamente adotaram medidas para limitar a produção de imagens, vídeos e áudios falsos, mas ainda enfrentam desafios.
Por exemplo, no ano passado, plataformas de IA foram usadas para criar vídeos falsos do presidente americano Joe Biden.
Taylor Swift também já foi vítima de deepfakes.
Neste mês, anúncios mostravam a artista vendendo utensílios de cozinha.
Oren Etzioni, professor de ciência da computação da Universidade de Washington que trabalha com detecção de deepfake, disse ao The New York Times que a pornografia não consensual sempre foi uma tendência na internet, mas a IA deve aumentar a produção desse tipo de conteúdo.
Mesmo com os esforços dos desenvolvedores para limitar a produção, Etzioni revelou que os usuários sempre encontram um “jailbreak”, uma maneira de manipular a IA e derrubar essa barreira de proteção.
Ben Colman, co-presidente e fundador da Reality Defender, afirmou que alguns estados tentaram restringir deepfakes pornográficos e com teor político, porém, sem o resultado esperado.
Ele completou que as plataformas pedem aos usuários que denunciem os conteúdos ilegais quando os veem, porém, nesse instante, milhões de outras pessoas já os compartilharam.
Ou seja, isso não funcionou.
A deputada democrata Yvette D. Clarke, de Nova York, onde um projeto de lei solicita a criminalização de imagens desse tipo, disse ao jornal que os avanços de IA tornaram a produção de deepfakes mais fácil e barato.
Publicidade
Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...