Alunos da Universidade de Stanford (EUA) criaram uma Inteligência Artificial capaz de identificar o local onde uma foto foi tirada, usando o banco de dados do Google Street View.
A ferramenta, chamada de Pigeon (Prever Geolocalizações de Imagens), teve uma taxa de acerto de 95% nos testes quando questionada sobre o país onde a imagem foi feita.
No entanto, em uma abordagem mais detalhada, a IA frequentemente erra por alguns quilômetros.
Ainda assim, ela também acertou em várias ocasiões.
Os jovens decidiram não comercializar o projeto, pelo menos não por agora.
Eles apenas escreveram um artigo científico sobre a iniciativa e explicaram que tornar o Pigeon público neste momento traria mais prejuízos do que benefícios.
Embora seja verdade que uma ferramenta como essa poderia identificar estradas que precisam de reparo, auxiliar biólogos a estudar a fauna e a flora de uma região, ou mesmo ajudar um turista a descobrir seu próximo destino, há também consequências negativas.
O Pigeon poderia colocar vítimas de perseguidores (stalkers) em perigo, governos poderiam usar a IA para espionagem, ou criminosos para monitorar áreas de interesse.
Esta discussão é necessária e não se limita apenas ao Pigeon.
A privacidade na internet e as regras em torno da Inteligência Artificial são temas urgentes para a sociedade moderna.
Governos e desenvolvedores sempre precisam estar atentos à segurança, como no caso recente aqui no Brasil.
O Ministério da Justiça acabou de lançar um aplicativo para bloquear celulares em caso de furto ou roubo.
Porém, após poucas horas de funcionamento, surgiram vários relatos de fraudes e golpes sendo feitos…
A IA foi desenvolvida por 3 amigos: Michal Skreta, Silas Alberti e Lukas Haas.
Eles precisavam apresentar um projeto de tecnologia na Universidade de Stanford e tinham um passatempo em comum: eram fãs do jogo GeoGuessr, no qual você tem que adivinhar onde estão localizados cenários ao redor do mundo.
A ideia era treinar um robô para se sair bem no jogo, e o que eles fizeram foi além! Não apenas criaram a ferramenta, como ela também superou jogadores humanos experientes.
Para o desenvolvimento, os estudantes utilizaram o modelo de rede neural CLIP, da OpenAI, especializado em aprender conceitos visuais a partir da linguagem natural.
Publicidade
Em 14 de janeiro a Solyd irá revolucionar a forma como pentest e hacking deve ser ensinado. Se inscreva para ser o primeiro a saber das novidades. Saiba mais...