Como Google, Meta e Microsoft utilizam seus dados pessoais para treinar IAs
12 de Setembro de 2023

Grandes empresas de tecnologia, como Google, Meta e Microsoft, estão no centro de uma prática preocupante que envolve o uso dos dados pessoais de seus usuários para treinar suas inteligências artificiais. Essas empresas coletam conversas, fotos e documentos de milhões de pessoas, com o objetivo de alimentar suas IAs, capacitando-as a executar desde tarefas de escrita até a criação artística.

Essa prática, que engloba serviços amplamente utilizados como Gmail, Instagram e Bing, está em constante crescimento, gerando preocupações crescentes sobre a violação da privacidade e o controle dos dados pessoais dos usuários, conforme relata matéria do jornal Washington Post.

Atualmente, não compreendemos totalmente os riscos que essa atitude representa para a privacidade ou reputação das pessoas, mas há muito pouco a fazer para evitá-lo. Às vezes, essas empresas tratam seus dados com cuidado, mas em outras ocasiões, seu comportamento contraria as expectativas comuns sobre o que acontece com suas informações, incluindo aquelas que você considera privadas.

Recentemente, o Zoom sinalizou um alerta ao afirmar que poderia usar o conteúdo privado de videochamadas para melhorar seus produtos de IA, antes de voltar atrás. Nos últimos meses, o Google atualizou sua política de privacidade para afirmar que poderia usar qualquer "informação publicamente disponível" para treinar sua IA.

Perdido na coleta de dados está o fato de que a maioria das pessoas não tem como tomar decisões realmente informadas sobre como seus dados estão sendo usados para treinar IA. Isso pode parecer uma invasão de privacidade.

Não é novidade que as empresas de tecnologia usam seus dados para treinar produtos de IA. A Netflix usa o que você assiste e avalia para gerar recomendações. A Meta utiliza suas interações, curtidas, comentários e até mesmo o tempo que você gasta para treinar sua IA a organizar seu feed de notícias e exibir anúncios.

No entanto, a IA generativa é diferente. A corrida da IA de hoje requer uma quantidade massiva de dados. Ben Winters, advogado sênior do Centro de Informações de Privacidade Eletrônica (EPIC), que tem estudado os danos da IA generativa, disse ao Washington Post:

Isso traz riscos únicos para a privacidade. Treinar uma IA para aprender tudo sobre o mundo significa que ela também acaba aprendendo coisas íntimas sobre indivíduos, desde detalhes financeiros e médicos até fotos e escritos pessoais.

Algumas empresas de tecnologia até reconhecem isso em suas letras miúdas. Quando você se inscreve para usar os novos recursos de escrita e geração de imagens da IA do Google no Workspace Labs, a empresa avisa: “não inclua informações pessoais, confidenciais ou sensíveis.”

O processo real de treinamento de IA pode ser um pouco assustador. As empresas contratam pessoas para revisar parte do que fazemos com produtos como a nova pesquisa alimentada por IA chamada SGE do Google. Em sua letra miúda para o Workspace Labs, o Google avisa que pode manter seus dados vistos por revisores humanos por até quatro anos, de uma forma não diretamente associada à sua conta.

Ainda pior para a sua privacidade, a IA às vezes vaza dados. IA generativa, que é notoriamente difícil de controlar, pode regurgitar informações pessoais em resposta a um novo estímulo, às vezes inesperado.

Isso até aconteceu com uma empresa de tecnologia. Funcionários da Samsung estavam supostamente usando o ChatGPT e descobriram em três ocasiões diferentes que o chatbot divulgou segredos da empresa. A empresa então proibiu o uso de chatbots de IA no trabalho. Apple, Spotify, Verizon e muitos bancos fizeram o mesmo.

As grandes empresas de tecnologia disseram ao WP que se empenham para evitar vazamentos. A Microsoft afirma que desidentifica os dados do usuário inseridos no Bing Chat. O Google afirma que remove automaticamente informações pessoalmente identificáveis dos dados de treinamento. A Meta afirma que treinará a IA generativa para não revelar informações privadas, de modo que ela possa compartilhar o aniversário de uma celebridade, mas não de pessoas comuns.

Publicidade

Hardware Hacking

Aprenda a criar dispositivos incríveis com o especialista Júlio Della Flora. Tenha acesso a aulas prática que te ensinarão o que há de mais moderno em gadgets de hacking e pentest. Se prepare para o mercado de pentest físico e de sistemas embarcados através da certificação SYH2. Saiba mais...