Criminosos cibernéticos sempre miraram onde as pessoas depositam mais confiança.
Primeiro, foi o e-mail.
Depois, os resultados de busca.
Agora, o alvo são as respostas geradas por ferramentas de inteligência artificial (IA) em chats.
Pesquisadores alertam para uma nova campanha maliciosa em que conversas falsas de IA aparecem nos resultados do Google e induzem usuários de Mac a instalar malware perigoso.
O maior risco está no fato de tudo parecer legítimo, útil e guiado passo a passo — até que o sistema esteja comprometido.
O malware disseminado é o Atomic macOS Stealer, mais conhecido como AMOS.
As investigações revelaram que os ataques exploram conversas geradas por assistentes de IA que usamos cada vez mais no dia a dia.
Ferramentas como ChatGPT e Grok foram confirmadas como parte dessa campanha mal-intencionada.
Um dos casos rastreados começou com uma busca simples no Google: “clear disk space on macOS” (liberar espaço no disco do Mac).
Em vez de um artigo comum de ajuda, o usuário encontrou uma conversa de IA semelhante a um resultado incorporado na busca.
O diálogo oferecia instruções claras e confiantes, terminando com a orientação para executar um comando no Terminal do macOS.
Esse comando instalava o AMOS.
Ao investigar essa pista, pesquisadores identificaram várias conversas de IA contaminadas aparecendo em buscas semelhantes.
Essa consistência indica uma operação deliberada que visa usuários de Mac em busca de manutenção básica.
Essa tática não é inédita.
Campanhas anteriores utilizaram resultados patrocinados e links manipulados via SEO, que direcionavam para softwares falsos hospedados no GitHub.
Neles, os criminosos se passavam por aplicativos legítimos e induziam o usuário a executar comandos no Terminal, instalando o mesmo infostealer AMOS.
Especialistas explicam que, ao executar o comando no Terminal, a infecção começa imediatamente.
Uma string em base64 contida no comando decodifica um URL que hospeda um script Bash malicioso.
Esse script é capaz de coletar credenciais, escalar privilégios e garantir persistência no sistema, tudo sem disparar alertas visíveis de segurança.
O grande perigo está na aparência limpa do processo.
Não há janela de instalação, nenhuma permissão explícita ou opção para o usuário revisar o que será executado.
Como tudo ocorre via linha de comando, as proteções comuns contra downloads são ignoradas, permitindo que o invasor execute qualquer código.
Essa operação combina dois fatores: a confiança nas respostas geradas por IA e a credibilidade dos resultados de busca.
Ferramentas como Grok no X e ChatGPT permitem deletar ou compartilhar partes selecionadas das conversas, possibilitando que atacantes criem respostas curtas e polidas que parecem genuinamente úteis, enquanto ocultam os comandos maliciosos por trás dos prompts.
Usando engenharia de prompts, eles fazem a IA gerar guias detalhados para limpeza ou instalação que, na verdade, entregam malware.
Depois, usam a função de compartilhamento do ChatGPT para criar links públicos dentro de contas controladas por eles.
Em seguida, pagam para impulsionar esses links por meio de resultados patrocinados ou utilizam técnicas de SEO para posicioná-los no topo das buscas.
Alguns anúncios maliciosos quase não se diferenciam dos legítimos.
Sem conferir o anunciante, o usuário pode ser facilmente enganado.
Pesquisadores relataram um exemplo de resultado patrocinado promovendo o falso navegador “Atlas” para macOS, com identidade visual profissional.
Com esses links no ar, os criminosos aguardam que os usuários busquem ajuda, cliquem, confiem nas respostas da IA e sigam as instruções à risca.
Vale destacar que ataques recentes também envolveram o uso de e-mails falsos supostamente do suporte da Apple para phishing, ampliando a sofisticação das técnicas.
Embora as ferramentas de IA sejam úteis, esses ataques mostram que as respostas podem ser moldadas para levar diretamente ao risco.
Veja como se proteger sem abrir mão dessas tecnologias:
A regra número um é: se uma resposta de IA ou qualquer página pedir que você execute um comando no Terminal copiando e colando, pare imediatamente.
Correções legítimas para macOS raramente exigem rodar scripts desse tipo sem verificação prévia.
Ao pressionar Enter, você perde o controle sobre o que acontece em seguida — exatamente o momento em que o malware AMOS aproveita para agir.
Lembre-se de que chats de IA não são fontes oficiais e podem ser manipulados via engenharia de prompt para criar guias perigosos que parecem confiantes e organizados.
Sempre confira as instruções na documentação oficial da Apple ou em sites confiáveis de desenvolvedores.
Se não conseguir validar, não execute.
Outro ponto crucial: utilize um gerenciador de senhas para criar combinações fortes e únicas para cada conta.
Caso um malware roube sua senha, ele não conseguirá acessar outros serviços.
Muitos gerenciadores nem preenchem automaticamente dados em sites falsos, ajudando a identificar tentativas de phishing antes mesmo de você digitar algo.
Também verifique se seu e-mail foi exposto em algum vazamento recente.
Caso encontre alguma ocorrência, troque imediatamente todas as senhas reutilizadas e proteja as contas com credenciais exclusivas.
Mantenha seu macOS e navegadores sempre atualizados.
AMOS e malwares similares exploram vulnerabilidades conhecidas para escalar privilégios ou manter acesso persistente.
Atualizações automáticas garantem proteção mesmo se você esquecer de instalá-las manualmente.
Invista em um bom antivírus que vá além da simples varredura de arquivos, monitorando comportamentos suspeitos e bloqueando scripts maliciosos, especialmente porque o ataque ocorre via linha de comando, sem downloads evidentes.
Além disso, desconfiar de resultados patrocinados é fundamental.
Alguns anúncios de busca são quase idênticos aos links legítimos, mas podem induzir a downloads ou comandos perigosos.
Feche imediatamente qualquer resultado suspeito, principalmente se incluir instruções para rodar scripts.
Cuidado com guias de “limpeza” ou “instalação” de fontes desconhecidas, especialmente se indicarem soluções via Terminal.
Instruções bem formatadas e linguagem confiante podem ser parte da armadilha.
Essa campanha revela uma mudança na forma de agir dos atacantes: de explorar falhas técnicas para manipular a confiança dos usuários.
Conversas falsas de IA funcionam justamente porque soam calmas, úteis e com autoridade.
Quando impulsionadas nos resultados de busca, são automaticamente consideradas confiáveis — o que não deveriam ser.
A parte técnica do AMOS é complexa, mas a porta de entrada é simples: alguém segue ordens sem questionar a origem.
Publicidade
A Solyd Hunter encontra, valida e entrega os melhores profissionais de Cibersegurança, Red Team, AppSec e Pentest para sua empresa com garantia e agilidade. Clique aqui e contrate com segurança. Saiba mais...