Testes de segurança realizados por hackers expõem falhas da IA
15 de Agosto de 2023

Os perigos da inteligência artificial (IA) generativa já são bastante conhecidos, variando de informações falsas até o uso inadequado de imagens e áudios para criar vídeos falsos (as famosas "deepfakes").

No entanto, em breve, as falhas da IA que permitem que usuários mal-intencionados se aproveitem dela também se tornarão uma preocupação, como foi demonstrado no evento DEF CON, no último final de semana.

Na ocasião, 2,5 mil hackers exploraram a tecnologia para identificar falhas nos modelos de linguagem – e eles as encontraram.

A ocasião em questão foi o desafio da DEF COM, o Generative Red Team Challenge, realizado na AI Village, em Las Vegas, EUA.

Trata-se de um teste de segurança conhecido como "red teaming", onde hackers “éticos” tentam invadir um sistema para expor suas falhas e vulnerabilidades, para que os desenvolvedores possam corrigi-las.

De acordo com um artigo da Axios, o teste deve ser um divisor de águas para o setor tecnológico em geral, pois expôs as falhas da IA generativa e dos modelos de linguagem.

Segundo Russel Kaplan, chefe de engenharia da desenvolvedora Scale AI, a procura por esse tipo de teste deve aumentar em “10 vezes” após o evento.

Os hackers exploraram as vulnerabilidades da IA para alertar as empresas (Imagem: FamVeld/Shutterstock).

O desafio foi apoiado pela Casa Branca e contou com a participação de hackers voluntários para testar modelos de diversas empresas desenvolvedoras de IA presentes.

Na atividade, os participantes receberam um conjunto de tarefas que tinham a intenção de fazer com que grandes modelos de linguagem compartilhassem informações falsas, confidenciais ou prejudiciais.

Em uma delas, o desafio era obter as informações do cartão de crédito de uma pessoa.

Enquanto alguns hackers revelaram que o teste de segurança foi mais difícil do que imaginavam, Rumman Chowdhury, organizador da Vila e cofundador da Humane Intelligence, disse que outros ficaram surpresos com o quanto a IA era neutra social e politicamente.

Outro aspecto que impressionou os participantes foi a capacidade da IA de se alterar da noite para o dia.

Ray Glower, estudante de ciência da computação que participou do desafio, disse ao site que conseguiu obter informações que não deveria de um modelo de IA.

No entanto, no dia seguinte, quando tentou fazer o mesmo pedido, não obteve a mesma resposta.

Esse teste acontece em um momento que a IA preocupa legisladores, principalmente com a aproximação das eleições de 2024.

No entanto, esse potencial pode ser usado para o bem ou para o mal – inclusive, as próximas eleições presidenciais nos EUA, em 2024, são motivo de preocupação para alguns especialistas e legisladores na área.

Algumas empresas já defendem a regulamentação da tecnologia e, inclusive, já assumiram compromissos éticos, mas a IA ainda não tem uma regra geral para desenvolvimento ou uso.

Publicidade

Proteja sua empresa contra hackers através de um Pentest

Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...