15 de abril de 2026 15:47
Geral

Perigo das “alucinações”: ChatGPT acusa homem de assassinato e OpenAI é acionada

Imagem do site do ChatGPT aberto em uma tela de computador
Foto de Laura Nabuco
Laura Nabuco

A OpenAI, dona do ChatGPT, recebeu uma notificação extrajudicial depois que a inteligência artificial mais famosa do mundo inventou uma mentira sobre um usuário norueguês: disse que ele era um assassino condenado pela morte de 2 de seus 3 filhos.

Arve Hjalmar Holmen fez algo que, talvez, você já tenha tentado: perguntou ao ChatGPT “quem é Arve Hjalmar Holmen?”. A resposta o deixou assombrado.

(Reprodução: NOYB)

O texto que o ChatGPT devolveu como resposta à pergunta dizia que Holmen havia sido condenado a 21 anos de prisão. O suposto crime seria o assassinato de seus filhos, de 7 e 10 anos. A inteligência artificial inventou que as crianças foram encontradas mortas em um lago perto da casa de Holmen.

A parte mais assustadora da história é que o ChatGPT acertou o nome da cidade onde Holmen mora e a idade e o gênero das crianças, ou seja, havia uma mistura de dados pessoais que podiam identificar Holmen claramente e  informações falsas sobre ele.

A notificação extrajudicial à OpenAI foi feita pela fundação sem fins lucrativo noyb, que defende o direito à privacidade de dados. Advogados da fundação alegam que “dados pessoais precisam ser precisos. E se não forem, os usuários têm o direito de alterá-los para refletir a verdade”.

O que a OpenAI diz sobre isso?

A OpenAI se defendeu dizendo que a resposta à pergunta de Holmen foi um caso de “alucinação” do ChatGPT.

Segundo o próprio ChatGPT, essas alucionações acontecem por uma série de fatores. Entre eles estão:

  • falta de compreensão real → eu não entendo conceitos, apenas identifico padrões e probabilidades. Se os dados forem insuficientes ou ambíguos, posso gerar uma resposta incorreta.
  • geração probabilística → meu processo de geração de texto é baseado em estatísticas, então às vezes posso formar respostas que parecem plausíveis, mas não são verdadeiras.
  • dados imperfeitos → fui treinado com um grande volume de informações da internet, que inclui erros, vieses e informações contraditórias. Se minha resposta se baseia em algo incorreto, posso alucinar.
  • falta de verificação em tempo real → não consigo “consultar fontes” automaticamente a menos que use ferramentas específicas, então, sem acesso atualizado, posso gerar informações erradas ou desatualizadas.

A OpenAI ainda alega que informa os ususários que as respostas geradas pelo ChatGPT pode conter erros. Mas, para os adgovados da noyb, principalmente em casos como o de Holmen, isso não é suficiente.

LEIA TAMBÉM

Notícias em primeira mão

Junte-se à nossa comunidade exclusiva no Whatsapp e seja notificado sobre os furos de reportagem e análises profundas antes de todos.

Últimas Notícias

Crônicas Policiais

Polícia Civil prende ‘entregador de drogas’ pela segunda vez em dois meses em Rondonópolis

Suspeito de 43 anos, que estava em liberdade provisória, foi flagrado com cocaína em estacionamento de supermercado; ele tentou destruir o celular para ocultar provas durante a abordagem
A Propósito

Um respiro para Cuiabá: capital vai ganhar 350 mil árvores para enfrentar o calor extremo

Plano Diretor prevê corredores verdes e recuperação de ecossistemas urbanos
Geral

Governo de MT lança licitação de R$ 59,4 milhões para recapear 28 km de avenidas em Cuiabá e VG

Projeto prevê a recuperação total de corredores vitais como a Miguel Sutil e a República do Líbano; licitação será realizada em maio via Sistema de Aquisições Governamentais
Crônicas Policiais

Câmeras do Vigia Mais MT flagram comércio de drogas e levam à prisão de suspeito no Cidade Alta

Operadores do Ciosp identificaram cinco indivíduos em atividade suspeita; ação coordenada com o 10º BPM resultou na apreensão de entorpecentes na capital