Erros Assustadores do ChatGPT: História Falsa de Assassinato Leva a Queixa Legal e Debate Sobre Privacidade e Responsabilidade da IA

As “alucinações” da IA são um fenômeno amplamente documentado. Como os Modelos de Linguagem de Grande Escala (LLMs) apenas fazem suposições sobre qual palavra é mais provável de vir a seguir e não compreendem elementos como contexto, eles tendem a inventar informações. Entre fatos falsos sobre queijo e conselhos médicos absurdos, essa desinformação pode parecer engraçada, mas está longe de ser inofensiva. Agora, pode haver consequências legais para esses erros.

Um homem norueguês chamado Arve Hjalmar Holmen decidiu conversar com o ChatGPT para ver quais informações o chatbot da OpenAI forneceria ao digitar seu próprio nome. Ele ficou horrorizado quando o ChatGPT supostamente criou uma história falsa, alegando que ele havia matado seus próprios filhos e sido condenado a 21 anos de prisão (via TechCrunch). O aspecto mais assustador? Além da história inventada, o ChatGPT incluiu detalhes precisos e identificáveis sobre a vida pessoal de Holmen, como o número e o gênero de seus filhos, além do nome de sua cidade natal.

O grupo de defesa dos direitos à privacidade Noyb logo se envolveu no caso. A organização contou ao TechCrunch que realizou sua própria investigação para entender por que o ChatGPT poderia estar gerando essas alegações, verificando se alguém com um nome semelhante havia cometido crimes graves. No entanto, não encontraram nada substancial nesse sentido, deixando o motivo por trás das declarações alarmantes do ChatGPT ainda sem explicação.

O modelo de IA subjacente ao chatbot foi atualizado e agora não repete mais as acusações difamatórias. No entanto, o Noyb, que já havia apresentado queixas anteriores sobre o ChatGPT gerando informações imprecisas sobre figuras públicas, não considerou o caso encerrado. A organização apresentou uma queixa à Datatilsynet (Autoridade Norueguesa de Proteção de Dados), argumentando que o ChatGPT violou o Regulamento Geral de Proteção de Dados (GDPR).

De acordo com o Artigo 5(1)(d) da lei da UE, as empresas que processam dados pessoais devem garantir que eles sejam precisos – e, se não forem, devem ser corrigidos ou excluídos. O Noyb argumenta que, mesmo que o ChatGPT tenha parado de acusar falsamente Holmen de ser um assassino, isso não significa que os dados incorretos tenham sido apagados.

O caso levanta questões importantes sobre a responsabilidade das empresas de IA em relação à precisão das informações geradas e à proteção dos dados pessoais dos usuários. Enquanto a tecnologia avança, a necessidade de regulamentação e supervisão torna-se cada vez mais evidente.


Este artigo foi inspirado no original disponível em pcgamer.com.

Deixe um comentário