Um grave problema de privacidade no ChatGPT pode expor conversas a terceiros desconhecidos.
Os dados violados incluiriam não apenas registros completos de conversas com a inteligência artificial, mas também informações confidenciais, incluindo logins e senhas, que foram compartilhadas nessas conversas com o bot.
Embora o ChatGPT seja bom em criar vírus poderosos, ele não é tão bom em detectar fraudes
Como descobrir se seus dados estão no maior vazamento da história
A vulnerabilidade foi reportada pelo site Ars Technica, que afirmou ter recebido sete relatórios de leitores.
Em todos eles, a alegação é de que conversas salvas por outras pessoas apareceram em suas contas de forma aleatória, expondo as informações fornecidas para o ChatGPT para resolução de problemas ou obtenção de respostas.
No caso mais sério, um funcionário de uma farmácia online reclamou abertamente sobre os desenvolvedores de um sistema interno, enquanto buscava a ajuda do ChatGPT para solucionar problemas no software.
Registros completos de suporte técnico, incluindo login e senha do portal, foram copiados na conversa com a inteligência artificial e acabaram expostos a pelo menos outra pessoa que não tem nenhuma relação com a empresa.
Em outros casos, a vulnerabilidade envolveu o acesso não autorizado a documentos de pesquisa econômica, um script PHP ainda em desenvolvimento por uma empresa de tecnologia e uma apresentação de marketing.
Em todos os casos, mesmo que as credenciais de acesso não estivessem disponíveis, foi possível encontrar informações que deveriam ser confidenciais.
Isso não é a primeira vez que isso acontece, alias.
Em março do ano passado, o ChatGPT teve que ser desligado às pressas depois que um bug fez com que os títulos das conversas dos usuários começassem a ser mostrados a pessoas aleatórias.
Naquele momento, porém, não era possível acessar a conversa em si, o que acabou limitando a exposição de informações.
A OpenAI está investigando um possível erro de sistema
A causa mais provável do bug é um problema nos dispositivos responsáveis por manter o chatbot funcionando.
Como forma de economizar recursos e largura de banda (de tráfego), eles podem armazenar algumas informações em cache; essas seria
m as informações exibidas a terceiros, devido a problemas de rota ou configuração desses dispositivos.
Em uma resposta oficial ao Ars Technica, a OpenAI, responsável pelo ChatGPT, disse apenas que está investigando o caso.
Enquanto isso, é importante reforçar o conselho de segurança habitual: Evite compartilhar informações pessoais e, principalmente, dados sensíveis com sistemas de inteligência artificial, pois esses dados serão usados para treinar a tecnologia.
Isso já levou empresas como a Samsung a proibir seus funcionários de usarem o ChatGPT e outras IA generativas em seu cotidiano de trabalho.
O histórico de problemas de segurança vai além, com o Brasil como o terceiro país mais afetado em um grande vazamento de dados do chatbot, em junho de 2023.
Publicidade
Passe por todas as principais fases de um pentest, utilizando cenários, domínios e técnicas reais utilizados no dia a dia de um hacker ético. Conte ainda com certificado e suporte, tudo 100% gratuito. Saiba mais...