ChatGPT revelou conversas contendo logins e senhas de usuários
31 de Janeiro de 2024

Um grave problema de privacidade no ChatGPT pode expor conversas a terceiros desconhecidos.

Os dados violados incluiriam não apenas registros completos de conversas com a inteligência artificial, mas também informações confidenciais, incluindo logins e senhas, que foram compartilhadas nessas conversas com o bot.

Embora o ChatGPT seja bom em criar vírus poderosos, ele não é tão bom em detectar fraudes
Como descobrir se seus dados estão no maior vazamento da história
A vulnerabilidade foi reportada pelo site Ars Technica, que afirmou ter recebido sete relatórios de leitores.

Em todos eles, a alegação é de que conversas salvas por outras pessoas apareceram em suas contas de forma aleatória, expondo as informações fornecidas para o ChatGPT para resolução de problemas ou obtenção de respostas.

No caso mais sério, um funcionário de uma farmácia online reclamou abertamente sobre os desenvolvedores de um sistema interno, enquanto buscava a ajuda do ChatGPT para solucionar problemas no software.

Registros completos de suporte técnico, incluindo login e senha do portal, foram copiados na conversa com a inteligência artificial e acabaram expostos a pelo menos outra pessoa que não tem nenhuma relação com a empresa.

Em outros casos, a vulnerabilidade envolveu o acesso não autorizado a documentos de pesquisa econômica, um script PHP ainda em desenvolvimento por uma empresa de tecnologia e uma apresentação de marketing.

Em todos os casos, mesmo que as credenciais de acesso não estivessem disponíveis, foi possível encontrar informações que deveriam ser confidenciais.

Isso não é a primeira vez que isso acontece, alias.

Em março do ano passado, o ChatGPT teve que ser desligado às pressas depois que um bug fez com que os títulos das conversas dos usuários começassem a ser mostrados a pessoas aleatórias.

Naquele momento, porém, não era possível acessar a conversa em si, o que acabou limitando a exposição de informações.

A OpenAI está investigando um possível erro de sistema
A causa mais provável do bug é um problema nos dispositivos responsáveis por manter o chatbot funcionando.

Como forma de economizar recursos e largura de banda (de tráfego), eles podem armazenar algumas informações em cache; essas seria
m as informações exibidas a terceiros, devido a problemas de rota ou configuração desses dispositivos.

Em uma resposta oficial ao Ars Technica, a OpenAI, responsável pelo ChatGPT, disse apenas que está investigando o caso.

Enquanto isso, é importante reforçar o conselho de segurança habitual: Evite compartilhar informações pessoais e, principalmente, dados sensíveis com sistemas de inteligência artificial, pois esses dados serão usados para treinar a tecnologia.

Isso já levou empresas como a Samsung a proibir seus funcionários de usarem o ChatGPT e outras IA generativas em seu cotidiano de trabalho.

O histórico de problemas de segurança vai além, com o Brasil como o terceiro país mais afetado em um grande vazamento de dados do chatbot, em junho de 2023.

Publicidade

Proteja sua empresa contra hackers através de um Pentest

Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...