O Google anunciou que está disponibilizando como open-source o Magika, uma ferramenta movida a inteligência artificial (IA) para identificar tipos de arquivo, a fim de ajudar os defensores a detectar com precisão tipos de arquivos binários e textuais.
"O Magika supera os métodos convencionais de identificação de arquivos, proporcionando um aumento geral de 30% na precisão e até 95% de maior precisão na identificação de conteúdos tradicionalmente difíceis de identificar, mas potencialmente problemáticos, como VBA, JavaScript e Powershell", disse a empresa.
O software utiliza um "modelo de aprendizado profundo personalizado e altamente otimizado" que permite a identificação precisa de tipos de arquivos dentro de milissegundos.
O Magika implementa funções de inferência usando a Open Neural Network Exchange (ONNX).
O Google disse que utiliza internamente o Magika em larga escala para ajudar a melhorar a segurança dos usuários, direcionando os arquivos do Gmail, Drive e Navegação Segura para os scanners de segurança e política de conteúdo apropriados.
Em novembro de 2023, a gigante da tecnologia revelou o RETVec (abreviação de Resilient and Efficient Text Vectorizer), um modelo de processamento de texto multilíngue para detectar conteúdo potencialmente prejudicial, como spam e emails maliciosos no Gmail.
Em meio a um debate em curso sobre os riscos da tecnologia em rápido desenvolvimento e seu uso abusivo por atores de Estados-nacionais associados à Rússia, China, Irã e Coreia do Norte para aumentar seus esforços de hacking, o Google disse que a implementação de IA em larga escala pode fortalecer a segurança digital e "inverter a balança da segurança cibernética dos atacantes para os defensores."
A empresa também enfatizou a necessidade de uma abordagem regulatória equilibrada para o uso e adoção de IA, a fim de evitar um futuro onde os atacantes podem inovar, mas os defensores estão restringidos devido às escolhas de governança de IA.
"A IA permite que profissionais de segurança e defensores ampliem seu trabalho na detecção de ameaças, análise de malware, detecção de vulnerabilidades, correção de vulnerabilidades e resposta a incidentes", observaram Phil Venables e Royal Hansen, da gigante da tecnologia.
"A IA oferece a melhor oportunidade para revolucionar o Dilema do Defensor e inclinar as balanças do ciberespaço para dar aos defensores uma vantagem decisiva sobre os atacantes."
Preocupações também foram levantadas sobre o uso de dados rasurados da web por modelos de IA gerativos para fins de treinamento, que também podem incluir dados pessoais.
"Se você não sabe para que seu modelo será usado, como pode garantir que seu uso a jusante respeitará a proteção de dados e os direitos e liberdades das pessoas?", Questionou o U.K.
Information Commissioner's Office (ICO) no mês passado.
Além disso, novas pesquisas mostraram que grandes modelos de linguagem podem funcionar como "agentes adormecidos" que podem ser aparentemente inócuos, mas podem ser programados para se envolver em comportamentos enganosos ou maliciosos quando critérios específicos são atendidos ou instruções especiais são fornecidas.
"Tal comportamento de backdoor pode ser feito persistente, de modo que não seja removido por técnicas padrão de treinamento de segurança, incluindo afinação supervisionada, aprendizado por reforço e treinamento adversário (provocando comportamento inseguro e depois treinando para removê-lo)", disseram pesquisadores da startup de IA, Anthropic, no estudo.
Publicidade
Imagine voltar ao tempo dos e-zines e poder desfrutar de uma boa revista contendo as últimas novidades, mas na pegada hacking old school.
Acesse gratuitamente o Cyberpunk Guide e fique por dentro dos mais modernos dispositivos usados pelos hackers.
Saiba mais...