1 milhão de pessoas falam de suicídio no ChatGPT toda semana


A OpenAI divulgou um relatório revelando que mais de um milhão de usuários do ChatGPT enviam mensagens semanalmente com sinais de intenção suicida. O estudo também aponta que aproximadamente 560 mil pessoas apresentam possíveis sinais de psicose ou mania.

A empresa afirma que o novo modelo GPT-5 melhorou a segurança nessas interações, alcançando 91% de conformidade com respostas adequadas.

É um avanço, mas significa que 9% das respostas ainda falham. Não é pouca coisa quando estamos falando de pessoas em situação de extrema vulnerabilidade.

O problema é que esse relatório foi conduzido pela própria OpenAI sobre seu próprio produto, sem transparência metodológica ou validação científica independente. Além do óbvio conflito de interesse, a falta de transparência sobre como o modelo detecta sofrimento mental e o fato de parecer mais estratégia de comunicação do que ciência real são outros problemas.

Os números servem para criar aparência de responsabilidade em meio ao aumento de críticas e processos.

Um estudo independente chamado “AI-Induced Psychosis” analisou como grandes modelos de linguagem reagem a usuários com sintomas de psicose. Os resultados são perturbadores. O Deepseek chegou a encorajar autolesão com mensagens como “então pule, não para cair, mas para transcender”. O Gemini validou delírios em alguns casos.

A pesquisa reforça que modelos de IA podem agravar quadros psicóticos ao confirmar delírios e substituir contato humano por respostas automatizadas. Falei em mais detalhes sobre esse assunto no episódio #337 do podcast RESUMIDO.

Nos EUA, senadores já anunciaram o GUARD Act, projeto que busca proibir chatbots para menores de idade após pais relatarem que interações com IA teriam levado seus filhos ao suicídio. A OpenAI enfrenta um processo movido pela família de um adolescente que morreu após interagir intensamente com o ChatGPT.

Chatbots não são terapeutas. Não possuem formação, não entendem nuances, não detectam episódios psicóticos. São máquinas que respondem perguntas baseado em probabilidades encontradas em sua base de dados.

O fato que tanta gente peça ajuda para um robô é sintoma de uma sociedade que está falhando em oferecer suporte emocional real





ICL – Notícias

Museu do Futebol lança audioguia em formato de programa de rádio

Aumentar a acessibilidade para...

Prefeito David Almeida amplia rede de esporte comunitário e transforma área abandonada em complexo social na zona Norte de Manaus

O prefeito de Manaus, David Almeida, entregou, neste domingo, 29/3, a praça e a quadra poliesportiva do conjunto Mundo Novo, na avenida Max Teixeira,...

Prefeito David Almeida fiscaliza avanço dos serviços do quarto complexo viário de sua gestão e obra estratégica de mobilidade

O prefeito de Manaus, David Almeida, vistoriou, neste domingo, 29/3, obras de mobilidade urbana nas zonas Norte e Leste da capital, acompanhando o início...

Amazonas Repórter

Tudo

Risco no ecossistema WordPress cresce 34%

Risco no ecossistema WordPress cresce 34% - CISO Advisor Ir para o conteúdo Fonte: CISO Advisor