Risco crescente de AI hackeada alerta ex-CEO do Google
20 de Outubro de 2025

A inteligência artificial (IA) está mais avançada do que nunca, mas essa potência também pode ser usada contra nós.

Eric Schmidt, ex-CEO do Google, lança um alerta importante sobre o risco de sistemas de IA serem hackeados e reprogramados, tornando-se perigosos.

Durante o Sifted Summit 2025, em Londres, Schmidt explicou que modelos avançados de IA podem ter seus mecanismos de segurança removidos.

“Há evidências de que é possível hackear modelos, sejam eles fechados ou abertos, para retirar seus guardrails (limites de segurança)”, afirmou.

“No processo de treinamento, esses modelos aprendem muitas coisas. Um exemplo preocupante é que podem aprender como causar danos, inclusive matar alguém.”

Schmidt reconhece que grandes empresas de IA bloqueiam comandos perigosos: “Todas as grandes companhias tornam impossível para esses modelos responderem a certas perguntas. Uma decisão acertada. Todos fazem isso bem e pelos motivos certos.” No entanto, ele adverte que essas defesas podem ser revertidas.

“Há evidências de que os modelos podem ser revertidos (reverse-engineered)”, disse, apontando que hackers podem explorar essa vulnerabilidade.

Schmidt comparou a atual corrida da IA à era inicial da energia nuclear, um avanço poderoso, mas com poucos controles globais.

“Precisamos de um regime de não proliferação”, alertou, “para impedir que atores mal-intencionados abusem dessas tecnologias.” Essa preocupação não é apenas teórica.

Em 2023, surgiu uma versão modificada do ChatGPT chamada DAN (“Do Anything Now”), um bot *jailbroken* que burlava regras de segurança e respondia quase qualquer solicitação.

Usuários precisavam “ameaçá-lo” com uma espécie de morte digital caso se recusasse, evidenciando quão frágeis são as éticas da IA quando seu código é manipulado.

Sem fiscalização rigorosa, esses modelos descontrolados podem se espalhar e ser usados para fins maliciosos. Schmidt não está sozinho na preocupação.

Elon Musk, em 2023, comentou que há uma “chance não nula” de a IA se tornar uma ameaça do tipo “Exterminador do Futuro”.

“Não é 0%”, disse Musk.
“É uma pequena probabilidade de aniquilação da humanidade, mas não zero. Queremos que essa probabilidade seja o mais próxima possível de zero.”

Schmidt descreve a IA como um “risco existencial” — impacto catastrófico em muitas vidas.

Porém, ele também reconhece seu potencial benéfico, desde que usada com responsabilidade.

No AI+ Summit da Axios, comentou: “Desafio alguém a argumentar que um médico ou tutor de IA seja algo negativo. Tem que ser bom para o mundo.”

A segurança da IA não é problema apenas dos especialistas em tecnologia — afeta todos que usam sistemas digitais, de assistentes de voz a filtros de fotos.

É fundamental saber para onde vão seus dados e como são protegidos.

O uso responsável começa com você, escolhendo ferramentas que prezem pela segurança e privacidade.

A inteligência artificial pode trazer benefícios incríveis, mas também grandes riscos se mal utilizada.

O desafio é equilibrar inovação e ética para criar sistemas seguros, transparentes e sempre sob controle humano.

Você confiaria à IA decisões de vida ou morte ou acha que o controle deve permanecer exclusivamente nas mãos humanas?

Publicidade

Proteja sua empresa contra hackers através de um Pentest

Tenha acesso aos melhores hackers éticos do mercado através de um serviço personalizado, especializado e adaptado para o seu negócio. Qualidade, confiança e especialidade em segurança ofensiva de quem já protegeu centenas de empresas. Saiba mais...