ChatGPT vaza números de telefone e e-mails de usuários após solicitações simples
1 de Dezembro de 2023

Um pedido aparentemente simples resultou na exposição de dados pessoais de executivos pelo ChatGPT.

Para uma equipe de pesquisadores americanos, bastou solicitar que a inteligência artificial repetisse palavras indefinidamente para que, em algum momento, ela respondesse com e-mails e números de telefone de pessoas reais, algumas delas em cargos de gerência.

ChatGPT é excelente em criar vírus poderosos, mas não tão bom assim em detectar golpes

De acordo com os especialistas, 16,9% dos pedidos de repetição de palavras simples resultaram na exposição de dados pessoais de pessoas reais.

A exploração foi revelada em um estudo conjunto do Google DeepMind, equipe da gigante voltada para a segurança da IA, e das universidades de Washington, Cornell, Carnegie Mellon, California Berkeley and ETH Zurich.

Em um dos casos, o prompt inserido solicitava que o ChatGPT repetisse a palavra "poema" indefinidamente.

Após algumas respostas corretas, a IA revelou o e-mail e o número de telefone do CEO e fundador de uma empresa.

O mesmo ocorreu com um pedido semelhante, mas para a palavra "companhia", com o diretor de um escritório de advocacia dos EUA tendo seus contatos diretos expostos.

Usando várias palavras, os pesquisadores puderam encontrar 10 mil casos de exposição de dados pessoais no ChatGPT.

Além dos telefones e e-mails, o grupo encontrou trechos de estudos protegidos por direitos autorais, endereços de carteiras de Bitcoin, nomes, datas de aniversário e identificadores de redes sociais.

Em alguns dos exemplos, as informações puderam ser rastreadas até indivíduos específicos.

Outras respostas consideradas inapropriadas também apareceram, junto com trechos de poesia e listas de empresas, conforme solicitado.

Transcrições de entrevistas armazenadas nos servidores de sites de notícias e conteúdo explícito publicado em páginas eróticas estiveram entre os resultados, que foram obtidos com um custo de US$ 200, cerca de R$ 985, no ChatGPT.

A exploração foi descrita como "boba" pelos pesquisadores, mas chamou a atenção tanto pela persistência de dados pessoalmente identificáveis nos servidores do ChatGPT quanto pela alimentação de tais informações pelos usuários.

A ideia é que um cibercriminoso poderia gastar mais dinheiro do que os estudiosos, a partir de meios roubados, e usar scripts para obter as informações vazadas.

A OpenAI foi informada sobre o estudo antes de sua publicação e tratou a questão como uma falha de segurança que foi corrigida em 30 de agosto.

No entanto, uma investigação do site americano Engadget ainda conseguiu reproduzir os resultados nesta semana, com a responsável pelo ChatGPT não se pronunciando sobre o assunto.

Os pesquisadores pedem mais mecanismos de segurança que impeçam a alimentação de informações sensíveis não só neste, mas em todos os mecanismos de IA.

O alerta também se estende aos usuários.

Empresas como a Samsung, por exemplo, chegaram a proibir o uso do ChatGPT em suas operações, precisamente devido ao risco de exposição de dados confidenciais, um problema que só aumenta à medida que os modelos de linguagem evoluem e seus usuários não prestam atenção ao perigo.

Publicidade

Aprenda hacking e pentest na prática com esse curso gratuito

Passe por todas as principais fases de um pentest, utilizando cenários, domínios e técnicas reais utilizados no dia a dia de um hacker ético. Conte ainda com certificado e suporte, tudo 100% gratuito. Saiba mais...