Risco crescente de AI hackeada alerta ex-CEO do Google
20 de Outubro de 2025

A inteligência artificial (IA) está mais avançada do que nunca, mas essa potência também pode ser usada contra nós.

Eric Schmidt, ex-CEO do Google, lança um alerta importante sobre o risco de sistemas de IA serem hackeados e reprogramados, tornando-se perigosos.

Durante o Sifted Summit 2025, em Londres, Schmidt explicou que modelos avançados de IA podem ter seus mecanismos de segurança removidos.

“Há evidências de que é possível hackear modelos, sejam eles fechados ou abertos, para retirar seus guardrails (limites de segurança)”, afirmou.

“No processo de treinamento, esses modelos aprendem muitas coisas. Um exemplo preocupante é que podem aprender como causar danos, inclusive matar alguém.”

Schmidt reconhece que grandes empresas de IA bloqueiam comandos perigosos: “Todas as grandes companhias tornam impossível para esses modelos responderem a certas perguntas. Uma decisão acertada. Todos fazem isso bem e pelos motivos certos.” No entanto, ele adverte que essas defesas podem ser revertidas.

“Há evidências de que os modelos podem ser revertidos (reverse-engineered)”, disse, apontando que hackers podem explorar essa vulnerabilidade.

Schmidt comparou a atual corrida da IA à era inicial da energia nuclear, um avanço poderoso, mas com poucos controles globais.

“Precisamos de um regime de não proliferação”, alertou, “para impedir que atores mal-intencionados abusem dessas tecnologias.” Essa preocupação não é apenas teórica.

Em 2023, surgiu uma versão modificada do ChatGPT chamada DAN (“Do Anything Now”), um bot *jailbroken* que burlava regras de segurança e respondia quase qualquer solicitação.

Usuários precisavam “ameaçá-lo” com uma espécie de morte digital caso se recusasse, evidenciando quão frágeis são as éticas da IA quando seu código é manipulado.

Sem fiscalização rigorosa, esses modelos descontrolados podem se espalhar e ser usados para fins maliciosos. Schmidt não está sozinho na preocupação.

Elon Musk, em 2023, comentou que há uma “chance não nula” de a IA se tornar uma ameaça do tipo “Exterminador do Futuro”.

“Não é 0%”, disse Musk.
“É uma pequena probabilidade de aniquilação da humanidade, mas não zero. Queremos que essa probabilidade seja o mais próxima possível de zero.”

Schmidt descreve a IA como um “risco existencial” — impacto catastrófico em muitas vidas.

Porém, ele também reconhece seu potencial benéfico, desde que usada com responsabilidade.

No AI+ Summit da Axios, comentou: “Desafio alguém a argumentar que um médico ou tutor de IA seja algo negativo. Tem que ser bom para o mundo.”

A segurança da IA não é problema apenas dos especialistas em tecnologia — afeta todos que usam sistemas digitais, de assistentes de voz a filtros de fotos.

É fundamental saber para onde vão seus dados e como são protegidos.

O uso responsável começa com você, escolhendo ferramentas que prezem pela segurança e privacidade.

A inteligência artificial pode trazer benefícios incríveis, mas também grandes riscos se mal utilizada.

O desafio é equilibrar inovação e ética para criar sistemas seguros, transparentes e sempre sob controle humano.

Você confiaria à IA decisões de vida ou morte ou acha que o controle deve permanecer exclusivamente nas mãos humanas?

Publicidade

Traçamos um caminho para você ir do zero ao avançado em hacking

Conheça a Solyd One, e tenha acesso a todos os cursos de segurança ofensiva da Solyd, todas as certificações práticas, incluindo a SYCP, 2 CTFs anuais com prêmios de até 30 mil reais, dezenas de laboratórios realísticos, suporte, comunidade e muito mais. Saiba mais...