Um vírus desenvolvido por especialistas em informática explorou as funcionalidades do ChatGPT para produzir mensagens, evadindo-se de ferramentas anti-malware e propagando-se, o que evidencia o potencial malicioso dos bots inteligentes.
Os detalhes dessa pesquisa foram compartilhados em junho na plataforma arXiv.
No estudo, David Zollikofer, pós-graduando em Ciência da Computação, juntamente com o pesquisador de malware Ben Zimmerman, criaram um arquivo que, ao ser anexado a e-mails, é capaz de infectar computadores.
Eles solicitaram que o modelo de IA generativa da OpenAI revisasse o código, modificando nomes de variáveis e sua lógica.
O resultado do experimento, denominado “synthetic cancer”, foi um vírus eficientemente disfarçado, tornando-se imperceptível aos sistemas de antivírus.
Uma vez no sistema da vítima, o arquivo malicioso executa o Outlook, compõe e-mails com conteúdo pertinente, usando o ChatGPT, e os anexa às mensagens.
Tais e-mails são enviados aos contatos do usuário, possibilitando a disseminação do malware que procederá de forma similar nos dispositivos subsequentes, caso seja aberto.
Os autores do estudo enfatizaram que as mensagens criadas pelo bot são bastante persuasivas, aumentando a eficácia de campanhas de engenharia social.
Os criadores do vírus experimental que utiliza o ChatGPT para se ocultar e redigir e-mails fraudulentos enfatizaram que este arquivo malicioso representa um "protótipo mínimo funcional", mas mesmo assim mostrou-se eficaz.
Além disso, observaram que, em certas ocasiões, a IA reconheceu as intenções maliciosas do malware e recusou-se a executar os comandos.
Frente a isso, Zollikofer e Zimmerman ressaltaram a importância de fomentar pesquisas sobre a aplicação da IA no desenvolvimento de malwares, mencionando os perigos que esta tecnologia pode acarretar.
Alan Woodward, especialista em segurança cibernética da Universidade de Surrey, advertiu que vírus assim são apenas o início de uma possível ameaça maior.
Woodward expressou preocupação, considerando que existem múltiplas maneiras pelas quais os LLMs (Large Language Models - Modelos de Grandes Linguagens) podem ser utilizados de forma abusiva, e o mais inquietante é que essas técnicas podem ser aperfeiçoadas com a ajuda da própria tecnologia, conforme disse em entrevista à NewScientist.
Publicidade
Passe por todas as principais fases de um pentest, utilizando cenários, domínios e técnicas reais utilizados no dia a dia de um hacker ético. Conte ainda com certificado e suporte, tudo 100% gratuito. Saiba mais...