EUA, Reino Unido e Parceiros Globais Publicam Diretrizes para o Desenvolvimento de Sistemas de IA Seguros
27 de Novembro de 2023

O Reino Unido e os EUA, junto com parceiros internacionais de outros 16 países, lançaram novas diretrizes para o desenvolvimento de sistemas de inteligência artificial (IA) seguros.

"A abordagem prioriza a propriedade dos resultados de segurança para os clientes, adota uma transparência e responsabilização radicais e estabelece estruturas organizacionais onde o design seguro é uma prioridade máxima", disse a Agência de Segurança de Infraestrutura e Cibersegurança dos EUA (CISA).

O objetivo é aumentar os níveis de cibersegurança da IA e ajudar a garantir que a tecnologia seja projetada, desenvolvida e implementada de maneira segura, acrescentou o Centro Nacional de Segurança Cibernética (NCSC).

As diretrizes também se baseiam nos esforços contínuos do governo dos EUA para gerenciar os riscos apresentados pela IA, garantindo que novas ferramentas sejam adequadamente testadas antes do lançamento público, existam balizas para abordar danos sociais, como preconceito e discriminação e preocupações com a privacidade, e estabelecer métodos robustos para os consumidores identificarem material gerado por AI.

Os compromissos também exigem que as empresas se comprometam a facilitar a descoberta e a notificação de vulnerabilidades em seus sistemas de IA por terceiros por meio de um sistema de recompensa por bugs, para que possam ser encontrados e consertados rapidamente.

As últimas diretrizes "ajudam os desenvolvedores a garantir que a cibersegurança seja uma pré-condição essencial para a segurança do sistema de IA e parte integral do processo de desenvolvimento desde o início e ao longo do mesmo, conhecido como abordagem 'seguro por design'", disse o NCSC.

Isso engloba design seguro, desenvolvimento seguro, implantação segura e operação e manutenção seguras, cobrindo todas as áreas significativas dentro do ciclo de vida do desenvolvimento do sistema de IA, exigindo que as organizações modelam as ameaças aos seus sistemas, bem como protejam suas cadeias de suprimentos e infraestrutura.

O objetivo, afirmaram as agências, é também combater ataques adversários que visam os sistemas de IA e aprendizado de máquina (ML) que pretendem causar comportamentos indesejados de várias maneiras, incluindo afetar a classificação de um modelo, permitir que os usuários realizem ações não autorizadas e extrair informações sensíveis.

"Há muitas maneiras de alcançar esses efeitos, como ataques de injeção de prompt no domínio do modelo de linguagem grande (LLM), ou corromper deliberadamente os dados de treinamento ou o feedback do usuário (conhecido como 'envenenamento de dados')", observou o NCSC.

Publicidade

Curso gratuito de Python

O curso Python Básico da Solyd oferece uma rápida aproximação à linguagem Python com diversos projetos práticos. Indo do zero absoluto até a construção de suas primeiras ferramentas. Tenha também suporte e certificado gratuitos. Saiba mais...