ChatGPT revelou conversas contendo logins e senhas de usuários
31 de Janeiro de 2024

Um grave problema de privacidade no ChatGPT pode expor conversas a terceiros desconhecidos.

Os dados violados incluiriam não apenas registros completos de conversas com a inteligência artificial, mas também informações confidenciais, incluindo logins e senhas, que foram compartilhadas nessas conversas com o bot.

Embora o ChatGPT seja bom em criar vírus poderosos, ele não é tão bom em detectar fraudes
Como descobrir se seus dados estão no maior vazamento da história
A vulnerabilidade foi reportada pelo site Ars Technica, que afirmou ter recebido sete relatórios de leitores.

Em todos eles, a alegação é de que conversas salvas por outras pessoas apareceram em suas contas de forma aleatória, expondo as informações fornecidas para o ChatGPT para resolução de problemas ou obtenção de respostas.

No caso mais sério, um funcionário de uma farmácia online reclamou abertamente sobre os desenvolvedores de um sistema interno, enquanto buscava a ajuda do ChatGPT para solucionar problemas no software.

Registros completos de suporte técnico, incluindo login e senha do portal, foram copiados na conversa com a inteligência artificial e acabaram expostos a pelo menos outra pessoa que não tem nenhuma relação com a empresa.

Em outros casos, a vulnerabilidade envolveu o acesso não autorizado a documentos de pesquisa econômica, um script PHP ainda em desenvolvimento por uma empresa de tecnologia e uma apresentação de marketing.

Em todos os casos, mesmo que as credenciais de acesso não estivessem disponíveis, foi possível encontrar informações que deveriam ser confidenciais.

Isso não é a primeira vez que isso acontece, alias.

Em março do ano passado, o ChatGPT teve que ser desligado às pressas depois que um bug fez com que os títulos das conversas dos usuários começassem a ser mostrados a pessoas aleatórias.

Naquele momento, porém, não era possível acessar a conversa em si, o que acabou limitando a exposição de informações.

A OpenAI está investigando um possível erro de sistema
A causa mais provável do bug é um problema nos dispositivos responsáveis por manter o chatbot funcionando.

Como forma de economizar recursos e largura de banda (de tráfego), eles podem armazenar algumas informações em cache; essas seria
m as informações exibidas a terceiros, devido a problemas de rota ou configuração desses dispositivos.

Em uma resposta oficial ao Ars Technica, a OpenAI, responsável pelo ChatGPT, disse apenas que está investigando o caso.

Enquanto isso, é importante reforçar o conselho de segurança habitual: Evite compartilhar informações pessoais e, principalmente, dados sensíveis com sistemas de inteligência artificial, pois esses dados serão usados para treinar a tecnologia.

Isso já levou empresas como a Samsung a proibir seus funcionários de usarem o ChatGPT e outras IA generativas em seu cotidiano de trabalho.

O histórico de problemas de segurança vai além, com o Brasil como o terceiro país mais afetado em um grande vazamento de dados do chatbot, em junho de 2023.

Publicidade

Aprenda hacking e pentest na prática com esse curso gratuito

Passe por todas as principais fases de um pentest, utilizando cenários, domínios e técnicas reais utilizados no dia a dia de um hacker ético. Conte ainda com certificado e suporte, tudo 100% gratuito. Saiba mais...