Novos Modelos de IA da OpenAI Causam Preocupação com Privacidade ao Revelarem Localizações em Fotos nas Redes Sociais

Um alerta importante: cuidado com as imagens que você posta nas redes sociais. Os mais recentes modelos de IA da OpenAI, lançados na semana passada, estão causando um novo fenômeno viral: a geolocalização por meio de bots. Em outras palavras, usar inteligência artificial para deduzir onde uma foto foi tirada. E isso pode se tornar um pesadelo para a privacidade e um risco de doxxing.

Os novos modelos o3 e o4-mini da OpenAI são capazes de “raciocínio visual”. Resumindo, isso significa que eles têm habilidades avançadas de análise de imagens. Os modelos podem recortar, manipular, ampliar, ler textos e muito mais. Combinado com a capacidade de busca na web, teoricamente, você tem uma ferramenta poderosa para identificar locais — o que soa um tanto ameaçador.

Segundo a própria OpenAI, “pela primeira vez, esses modelos podem integrar imagens diretamente em sua linha de raciocínio. Eles não apenas veem uma imagem — eles pensam com ela. Isso abre portas para uma nova classe de resolução de problemas que mistura raciocínio visual e textual.”

E é exatamente isso que usuários do modelo o3 estão descobrindo (via TechCrunch). Vários posts estão surgindo nas redes sociais mostrando pessoas desafiando o ChatGPT a jogar GeoGuessr com imagens enviadas. Uma foto recortada de alguns livros em uma estante? A IA identificou corretamente a biblioteca da Universidade de Melbourne. Assustador. Outro post no X mostra o modelo detectando carros com volante à esquerda, mas dirigindo na mão esquerda, reduzindo as opções para países onde essa combinação é comum — incluindo a resposta correta: Suriname, na América do Sul.

Este artigo foi inspirado no original disponível em pcgamer.com.

Deixe um comentário