18 de abril de 2026 09:05
Geral

Perigo das “alucinações”: ChatGPT acusa homem de assassinato e OpenAI é acionada

Imagem do site do ChatGPT aberto em uma tela de computador
Foto de Laura Nabuco
Laura Nabuco

A OpenAI, dona do ChatGPT, recebeu uma notificação extrajudicial depois que a inteligência artificial mais famosa do mundo inventou uma mentira sobre um usuário norueguês: disse que ele era um assassino condenado pela morte de 2 de seus 3 filhos.

Arve Hjalmar Holmen fez algo que, talvez, você já tenha tentado: perguntou ao ChatGPT “quem é Arve Hjalmar Holmen?”. A resposta o deixou assombrado.

(Reprodução: NOYB)

O texto que o ChatGPT devolveu como resposta à pergunta dizia que Holmen havia sido condenado a 21 anos de prisão. O suposto crime seria o assassinato de seus filhos, de 7 e 10 anos. A inteligência artificial inventou que as crianças foram encontradas mortas em um lago perto da casa de Holmen.

A parte mais assustadora da história é que o ChatGPT acertou o nome da cidade onde Holmen mora e a idade e o gênero das crianças, ou seja, havia uma mistura de dados pessoais que podiam identificar Holmen claramente e  informações falsas sobre ele.

A notificação extrajudicial à OpenAI foi feita pela fundação sem fins lucrativo noyb, que defende o direito à privacidade de dados. Advogados da fundação alegam que “dados pessoais precisam ser precisos. E se não forem, os usuários têm o direito de alterá-los para refletir a verdade”.

O que a OpenAI diz sobre isso?

A OpenAI se defendeu dizendo que a resposta à pergunta de Holmen foi um caso de “alucinação” do ChatGPT.

Segundo o próprio ChatGPT, essas alucionações acontecem por uma série de fatores. Entre eles estão:

  • falta de compreensão real → eu não entendo conceitos, apenas identifico padrões e probabilidades. Se os dados forem insuficientes ou ambíguos, posso gerar uma resposta incorreta.
  • geração probabilística → meu processo de geração de texto é baseado em estatísticas, então às vezes posso formar respostas que parecem plausíveis, mas não são verdadeiras.
  • dados imperfeitos → fui treinado com um grande volume de informações da internet, que inclui erros, vieses e informações contraditórias. Se minha resposta se baseia em algo incorreto, posso alucinar.
  • falta de verificação em tempo real → não consigo “consultar fontes” automaticamente a menos que use ferramentas específicas, então, sem acesso atualizado, posso gerar informações erradas ou desatualizadas.

A OpenAI ainda alega que informa os ususários que as respostas geradas pelo ChatGPT pode conter erros. Mas, para os adgovados da noyb, principalmente em casos como o de Holmen, isso não é suficiente.

LEIA TAMBÉM

Notícias em primeira mão

Junte-se à nossa comunidade exclusiva no Whatsapp e seja notificado sobre os furos de reportagem e análises profundas antes de todos.

Últimas Notícias

Economia

ORIENTAÇÃO FISCAL IR 2026: Saiba como escolher entre o modelo simplificado e o completo para pagar menos

Decisão entre desconto padrão de 20% ou deduções legais depende do volume de gastos com saúde e educação; especialistas recomendam testar ambas as opções no programa da Receita
Justiça

SUPREMO TRIBUNAL Unanimidade: STF derruba lei de Santa Catarina que proibia cotas raciais

Com placar de 10 a 0, ministros reafirmam a constitucionalidade de ações afirmativas baseadas em critérios étnico-raciais; lei estadual tentava limitar reserva de vagas a critérios econômicos e sociais
Geral

Parque Linear da Avenida do CPA chega à reta final; veja o status das obras do BRT

Além do novo espaço de lazer na Capital, frentes de serviço avançam no Morro da Luz, Shopping Popular e na conexão com o Aeroporto em Várzea Grande
Geral

Ação conjunta entre bombeiros e brigada evita incêndio de grandes proporções em algodoeira

Chamas atingiram cerca de 40 fardos de caroço de algodão no Distrito Industrial de Campo Novo do Parecis; maquinário pesado foi usado para isolar o material