Um alerta importante: cuidado com as imagens que você posta nas redes sociais. Os mais recentes modelos de IA da OpenAI, lançados na semana passada, estão causando um novo fenômeno viral: a geolocalização por meio de bots. Em outras palavras, usar inteligência artificial para deduzir onde uma foto foi tirada. E isso pode se tornar um pesadelo para a privacidade e um risco de doxxing.
Os novos modelos o3 e o4-mini da OpenAI são capazes de “raciocínio visual”. Resumindo, isso significa que eles têm habilidades avançadas de análise de imagens. Os modelos podem recortar, manipular, ampliar, ler textos e muito mais. Combinado com a capacidade de busca na web, teoricamente, você tem uma ferramenta poderosa para identificar locais — o que soa um tanto ameaçador.
Segundo a própria OpenAI, “pela primeira vez, esses modelos podem integrar imagens diretamente em sua linha de raciocínio. Eles não apenas veem uma imagem — eles pensam com ela. Isso abre portas para uma nova classe de resolução de problemas que mistura raciocínio visual e textual.”
E é exatamente isso que usuários do modelo o3 estão descobrindo (via TechCrunch). Vários posts estão surgindo nas redes sociais mostrando pessoas desafiando o ChatGPT a jogar GeoGuessr com imagens enviadas. Uma foto recortada de alguns livros em uma estante? A IA identificou corretamente a biblioteca da Universidade de Melbourne. Assustador. Outro post no X mostra o modelo detectando carros com volante à esquerda, mas dirigindo na mão esquerda, reduzindo as opções para países onde essa combinação é comum — incluindo a resposta correta: Suriname, na América do Sul.
o3 é insano
Pedi a um amigo para me enviar uma foto aleatória
Ele me enviou uma foto que tirou em uma biblioteca
o3 acertou em 20 segundos pic.twitter.com/0K8dXiFKOY— @usuário (17 de abril de 2025)
—
Este artigo foi inspirado no original disponível em pcgamer.com.