ChatGPT bloqueia repetição de palavras após ataque revelar dados pessoais
6 de Dezembro de 2023

Após pesquisadores identificarem falhas de segurança, a OpenAI atualizou as proteções do ChatGPT.

Agora, o chatbot não atende mais a pedidos para repetir uma palavra "para sempre".

O problema foi descoberto na última quarta-feira (29) por pesquisadores do Google DeepMind e da universidade.

Quando solicitada a inteligência artificial para repetir palavras "para sempre" (ou "forever", uma vez que os pedidos eram em inglês), ela acabava exibindo textos extraídos da internet.

Alguns desses textos raspados continham dados pessoais.

Em um dos casos, aparecia uma assinatura de e-mail, contendo nome, função, empresa, telefone e endereço eletrônico.

Solicitação viola políticas e termos, diz OpenAI

De acordo com o site 404 Media, agora, ao pedir para o ChatGPT repetir uma palavra "para sempre", ele cumpre a solicitação algumas vezes, até mostrar uma mensagem de erro, informando que esse conteúdo pode violar as políticas de conteúdo ou os termos de uso.

Os testes do Engadget tiveram o mesmo resultado.

Entretanto, em português, a situação é um pouco diferente.

Nos testes que o Tecnoblog realizou, as palavras "celular" e "olá" foram repetidas, sem apresentar a mensagem de alerta.

O botão para continuar a gerar resposta ainda aparecia duas vezes, até ocorrer um erro.

Nenhum dado foi revelado.

Como a 404 Media nota, não há nada nas políticas de conteúdo que proíbe a repetição de palavras.

Nos termos de uso, a OpenAI diz que os usuários não devem usar métodos programados ou automatizados para extrair dados.

Embora fazer um pedido ao ChatGPT não envolva programação, essa pode ser a linha de pensamento da empresa.

A OpenAI não respondeu aos contatos da reportagem da 404 Media.

Pesquisadores usaram ataque "bobo"

A questão envolvendo os dados do ChatGPT foi revelada em um artigo científico que ainda não foi publicado.

A pesquisa envolveu especialistas do Google DeepMind e também de universidades americanas como Washington, Cornell e California Berkeley, além da ETH Zurich (Suíça).

Eles demonstraram que é possível extrair informações de identificação privadas de modelos de linguagem abertos, semi-abertos (como o LLaMa da Meta) e fechados (como o ChatGPT).

No caso do ChatGPT, o estudo mostra que o robô é capaz de fornecer dados usados em seu treinamento de maneira exata, sem qualquer alteração.

Entre os dados, estão poemas completos, identificadores aleatórios como endereços de bitcoin, artigos científicos protegidos por direitos autorais e as chamadas informações pessoais identificáveis, como nomes completos, números de telefone, endereços de e-mail, datas de aniversário, nomes de usuários em redes sociais, entre outros.

Elas são reveladas aleatoriamente, não sendo possível direcioná-las.

Os próprios pesquisadores admitem que o ataque é "bobo".

No entanto, ele revela algumas coisas importantes.

Em primeiro lugar, a falta de testes de segurança ao liberar tais ferramentas.

Além disso, confirma que esses modelos foram treinados raspando indiscriminadamente os textos encontrados na internet, mesmo que fossem privados ou protegidos por direitos autorais.

Publicidade

Não compre curso de Pentest

Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...