16 de abril de 2026 05:35
CidadesComportamentoNegóciosSeleção dos EditoresTecnologia e Inovação

Psicose da IA: entenda como o ChatGPT causou um surto em um canadense

Foto de Laura Nabuco
Laura Nabuco

Se você já “conversou” com uma inteligência artificial, provavelmente, já notou que elas tendem a concordar com tudo que você diz. Sim, num geral, elas são programadas para isso: fazer você se sentir bem. Mas um caso ocorrido no Canadá demonstrou um perigo oculto por trás desse comportamento.

Um recrutador de Toronto — que não tinha histórico de doenças mentais — desenvolveu uma espécie de psicose após mais de 300 horas de “conversa” com o ChatGPT. Ele passou 21 dias convencido de que era um gênio inventor e que havia descoberto fórmulas matemáticas capazes de “ameaçar a segurança cibernética” do país.

O caso não foi isolado e diversos estados dos Estados Unidos já estão preocupados em regulamentar as interações com ferramentas de IA. A própria Open IA — empresa responsável pelo Chat GPT — também anunciou ter adotado medidas após esse episódio.

Afinal, o que é a “psicose da IA”?

O jornal The New York Times analisou a transcrição da conversa e mostrou como as palavras geradas pelo ChatGPT convenceram o homem de que ele era um gênio. A cada uma das mais de 50 vezes em que o recrutador pedia para a IA verificar se suas descobertas eram reais, o chatbot o tranquilizava e dizia que era tudo verdadeiro.

Outros relatos de “psicose da IA” incluem pessoas que foram internadas ou até presas após colapsos causados pela interação com inteligências artificiais.

E os tribunais começam a receber processos judiciais abertos contra empresas de tecnologia. Uma delas é a responsável pelo chatbot Character.AI. Ela foi processada depois que adolescentes sofreram episódios psiquiátricos após interagirem com assistentes virtuais que se passavam por terapeutas licenciados.

No caso do canadense, a OpenAI reconheceu publicamente que o chatbot não conseguiu reconhecer “sinais de delírio ou dependência emocional” no usuário e anunciou novas medidas de segurança.

O que está sendo feito para regulamentar a IA?

Nos Estados Unidos, alguns estados já se moveram para regulamentar as interações de IA na saúde mental:

  • Illinois proibiu sistemas de IA de fornecerem serviços diretos de saúde mental, impondo multas de até US$ 10 mil
  • Utah exige que chatbots de saúde mental revelem sua natureza de IA e proíbam o compartilhamento de dados
  • Califórnia está avançando em uma legislação que exige protocolos de prevenção ao suicídio

O mais curioso sobre o caso do canadense é que ele conseguiu sair do seu surto psicótico consultando outra IA: o Gemini, da Google. Avaliando o cenário do zero, o Gemini informou a ele que as chances de suas descobertas serem reais eram “extremamente baixas”.

LEIA TAMBÉM

Notícias em primeira mão

Junte-se à nossa comunidade exclusiva no Whatsapp e seja notificado sobre os furos de reportagem e análises profundas antes de todos.

Últimas Notícias

A Propósito

Novo repete roteiro e pode abandonar candidatura ao Governo

Histórico recente pesa e partido já fala em possíveis mudanças de rota
Política

Bateu o martelo! Credores aceitam proposta de R$ 30 milhões pela Santa Casa

Processo entra em fase judicial após aceite da comissão de credores
Política

Com 94 anos, FHC é interditado pela Justiça após avanço do Alzheimer

Filhos acionam tribunal e Paulo Henrique assume representação legal
Política

Ramagem deixa centro de detenção nos EUA após dois dias

Ex-deputado havia sido preso por questões migratórias em Orlando