Clonagem de Voz por IA e os Riscos de Segurança
11 de Março de 2025

A Consumer Reports, uma renomada organização de defesa do consumidor nos EUA, recentemente emitiu um relatório alertando que diversas ferramentas de clonagem de voz por IA populares não apresentam medidas de segurança adequadas contra a clonagem não autorizada.

Estas lacunas de segurança abrem portas para que indivíduos mal-intencionados utilizem tais ferramentas em fraudes, falsificações em esferas jurídicas e para manipulação de informações.

Foi observado que a maioria dessas ferramentas está disponível ao público sem custos.

Em uma investigação minuciosa, a Consumer Reports examinou seis programas de clonagem de voz reconhecidos pela sua popularidade: Descript, ElevenLabs, Lovo, PlayHT, Resemble AI e Speechify.

Destes, quatro – ElevenLabs, Speechify, PlayHT e Lovo – apresentaram controles insuficientes para prevenir clonagem não autorizada, exigindo apenas que os usuários marquem uma opção confirmando ter permissão para clonar a voz em questão, sem realizar qualquer tipo de verificação adicional.

Mas o que nos permite essas tecnologias de clonagem de voz? Bem, elas possibilitam a reprodução digital da voz de uma pessoa a partir de um simples arquivo de áudio dela falando.

Isso significa que, teoricamente, qualquer arquivo de áudio obtido de plataformas como YouTube ou TikTok pode ser utilizado para recriar a voz de alguém de forma convincente, mesmo que não haja um consentimento explícito para tal.

Dentre as ferramentas revisadas, somente o Resemble AI impôs uma barreira significativa, solicitando que os usuários gravem um áudio em tempo real ao invés de apenas submeterem um arquivo existente.

Contudo, foi evidenciado que essa medida pode ser facilmente contornada, com testes revelando que bastava reproduzir uma gravação pré-existente para burlar o sistema.

Em meio às preocupações de segurança, a plataforma Descript se destacou por exigir uma declaração de consentimento específica a ser gravada pelos usuários antes da clonagem, uma abordagem que, embora mais segura, ainda é vulnerável a manipulações feitas por criminosos que poderiam criar uma autorização falsa utilizando outra ferramenta de IA.

Os serviços analisados são acessíveis gratuitamente, mas alguns, como Speechify, Resemble AI e PlayHT, oferecem opções pagas que variam de US$ 5 a US$ 19 por criações de voz personalizadas, embora também disponibilizem testes sem custo algum.

Os riscos associados ao uso indevido da clonagem de voz por IA são múltiplos, indo desde fraudes e golpes financeiros até a potencial falsificação de evidências em contextos legais.

No corrente ano de 2023, foram registrados casos de criminosos que empregaram tal tecnologia para realizar falsas alegações de sequestro e demandas de fiança, evidenciando as vulnerabilidades existentes.

Para combater esses riscos e promover um uso mais seguro das ferramentas de IA, a Consumer Reports propõe diversas medidas focadas em transparência e segurança, incluindo a exigência de que empresas detalhem claramente o uso de sistemas de IA em decisões importantes, a proibição de discriminção algorítmica e a restrição de venda de dados pessoais coletados por essas ferramentas, além da responsabilização de companhias que negligenciem a prevenção ao uso mal-intencionado de IA.

Informações provenientes da Consumer Reports e NBC News embasam esta visão, lançando luz sobre uma problemática atual e as possíveis direções para mitigar seus impactos negativos no tecido social.

Publicidade

Proteja sua empresa contra hackers através de um Pentest

Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...