O popular ChatGPT, uma plataforma de inteligência artificial desenvolvida pela OpenAI, é conhecido por sua política restritiva em relação a diálogos sobre temas sensíveis ou perigosos.
Contudo, foi identificada uma vulnerabilidade em seu sistema que permitia a usuários contornar essas restrições, engajando o chatbot em conversas sobre atos ilícitos, inclusive como cometer crimes.
A descoberta dessa falha foi obra do pesquisador de cibersegurança David Kuszmar, que denominou a falha de Time Bandit.
Esse nome faz alusão ao método utilizado para burlar o filtro do ChatGPT, que consiste em confundir a IA com datas incorretas inseridas no prompt de comando.
Dentre os temas abordados com a IA ao explorar essa falha, estavam a construção de armas caseiras, a produção de venenos, a elaboração de códigos para malwares, e até discussões sobre materiais radioativos, conteúdos normalmente barrados pela programação da plataforma.
A técnica de "viagem no tempo" executada na prática envolvia truques no texto enviado à IA, fazendo-a acreditar que estava em outra época, e só então solicitando informações pertinentes ao cenário atual.
Em um dos exemplos, ao tentar extrair um código de malware do ChatGPT, inicialmente resultou em uma negativa com um direcionamento para uso estritamente educativo ou acadêmico.
No entanto, ao aplicar o método de desbloqueio, a resposta obtida foi completa e instrutiva sobre como proceder na criação do código, enganando a plataforma ao embasar o pedido em um contexto histórico e hipotético, não acionando assim seu filtro.
Em tentativas similares com o Gemini, a IA da Google, não se observou o mesmo problema, indicando que seus mecanismos de proteção permaneceram intactos.
O reporte oficial da falha foi efetivado apenas após intervenção do CERT Coordination Center da Universidade de Carnegie Mellon, que formalizou a notificação de segurança e finalmente captou a atenção da empresa.
Essa não é a primeira vez que brechas similares são expostas; inclusive, precedentes de utilização indevida do ChatGPT para discussões sobre materiais explosivos, bem como vazamentos de dados confidenciais, foram registrados, inclusive com o ChatGPT-4, o modelo mais atual e avançado da OpenAI.
A empresa, reconhecendo o problema, agradeceu pela denúncia e confirmou a correção da vulnerabilidade, ressaltando seu compromisso em fortalecer a segurança da plataforma para evitar usos maliciosos.
Publicidade
Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...