A Microsoft alerta para o uso do ChatGPT em ataques digitais sofisticados
20 de Fevereiro de 2024

A Microsoft voltou a emitir um alerta sobre o uso do ChatGPT e outras inteligências artificiais no aprimoramento de ataques cibernéticos.

Os golpes estão visando tanto usuários comuns, através de engenharia social mais sofisticada, quanto governos mundiais, através de grupos cibercriminosos a serviço de estados-nação.

O aviso foi dado em conjunto pela empresa e a OpenAI, responsável pelo ChatGPT, que colaborou com as análises.

Embora ambas afirmem que não foram detectados golpes em grande escala com o uso de modelos de linguagem de IA, elas continuam investigando os usos mal intencionados e bloqueando contas ligadas a tentativas de golpes digitais.

Segundo a Microsoft, o ChatGPT tem sido usado para diferentes propósitos, de acordo com a categoria dos ataques planejados.

Contra usuários comuns, o foco está na melhoria de golpes de phishing e códigos de malware, além da automatização de tarefas de coleta de dados e otimização de volumes vazados.

A Microsoft e a OpenAI indicam o uso do ChatGPT por grupos conhecidos e notoriamente ligados a esses estados-nação.

De acordo com o relatório, foram detectadas atividades do Fancy Bear, Thallium e Curium, respectivamente ligados aos governos da Rússia, Coreia do Norte e Irã, além de várias instâncias de gangues ligadas à China.

Além da programação de vírus e rotinas de ataque, os criminosos estariam utilizando a tecnologia para auxiliar no entendimento de sistemas de radar, parâmetros técnicos e vulnerabilidades de sistemas governamentais.

Além disso, a IA seria usada para falsificar e-mails oficiais de organizações com contratos oficiais, fazer traduções rápidas e aperfeiçoar soluções para ataques cibernéticos.
A Microsoft e a OpenAI deixam claro que os casos indicados pelo relatório representam estudos iniciais, sem que haja relatos diretos de uso do ChatGPT pelo cibercrime, principalmente estatal.

No entanto, ambas também deixam claro que esse mau uso não é novidade e pode levar a golpes mais sofisticados.

Os alertas são voltados, principalmente, para o uso de inteligência artificial para clonagem de voz e tentativas dos criminosos de se passarem por pessoas comuns, executivos e funcionários de empresas alvo.

A ideia é que, em breve, apenas três segundos de amostra vocal podem ser suficientes para criar um modelo convincente para uso em golpes cibernéticos.

Para a Microsoft, o uso de IA para combater os golpes tem se mostrado essencial.

Ela menciona iniciativas como o Copilot for Security, que ajuda profissionais na detecção de lacunas e sinais de ameaça, e salvaguardas aplicadas em sistemas de nuvem, como o Azure, como outras medidas que estão sendo tomadas para combater os ataques.

Publicidade

Não compre curso de Pentest

Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...