spot_imgspot_img
27.3 C
Manaus
quinta-feira, fevereiro 12, 2026
spot_imgspot_img

1 milhão de pessoas falam de suicídio no ChatGPT toda semana


A OpenAI divulgou um relatório revelando que mais de um milhão de usuários do ChatGPT enviam mensagens semanalmente com sinais de intenção suicida. O estudo também aponta que aproximadamente 560 mil pessoas apresentam possíveis sinais de psicose ou mania.

A empresa afirma que o novo modelo GPT-5 melhorou a segurança nessas interações, alcançando 91% de conformidade com respostas adequadas.

É um avanço, mas significa que 9% das respostas ainda falham. Não é pouca coisa quando estamos falando de pessoas em situação de extrema vulnerabilidade.

O problema é que esse relatório foi conduzido pela própria OpenAI sobre seu próprio produto, sem transparência metodológica ou validação científica independente. Além do óbvio conflito de interesse, a falta de transparência sobre como o modelo detecta sofrimento mental e o fato de parecer mais estratégia de comunicação do que ciência real são outros problemas.

Os números servem para criar aparência de responsabilidade em meio ao aumento de críticas e processos.

Um estudo independente chamado “AI-Induced Psychosis” analisou como grandes modelos de linguagem reagem a usuários com sintomas de psicose. Os resultados são perturbadores. O Deepseek chegou a encorajar autolesão com mensagens como “então pule, não para cair, mas para transcender”. O Gemini validou delírios em alguns casos.

A pesquisa reforça que modelos de IA podem agravar quadros psicóticos ao confirmar delírios e substituir contato humano por respostas automatizadas. Falei em mais detalhes sobre esse assunto no episódio #337 do podcast RESUMIDO.

Nos EUA, senadores já anunciaram o GUARD Act, projeto que busca proibir chatbots para menores de idade após pais relatarem que interações com IA teriam levado seus filhos ao suicídio. A OpenAI enfrenta um processo movido pela família de um adolescente que morreu após interagir intensamente com o ChatGPT.

Chatbots não são terapeutas. Não possuem formação, não entendem nuances, não detectam episódios psicóticos. São máquinas que respondem perguntas baseado em probabilidades encontradas em sua base de dados.

O fato que tanta gente peça ajuda para um robô é sintoma de uma sociedade que está falhando em oferecer suporte emocional real





ICL – Notícias

Beach club embargado da família Vorcaro realiza evento no pré-Carnaval da Bahia

Por Thiago Domenici – Agência Pública Uma festa realizada no último fim...

Toffoli deixa relatoria de investigação sobre o Banco Master

O ministro Dias Toffoli,...

Líderes da oposição apoiaram propostas para manter escala 6×1 e barrar mudança na Constituição

Por Vinicius Konchinski – Repórter Brasil  Prioridade do governo federal em 2026, o...
-Patrocinador-spot_img

Amazonas Repórter

Tudo

Pentágono quer ‘restaurar a supremacia militar’ sobre a América Latina

O governo de Donald Trump fala abertamente em retomar a “supremacia militar”...

Queda no número de nascimentos acelera no Brasil e tem 6º ano consecutivo em baixa, diz IBGE

Por Leonardo Vieceli  (Folhapress) – A queda no número de nascimentos no Brasil...

Mercado financeiro e líderes globais reagem ao avanço das tarifas de Trump

Com cautela, os líderes globais e o mercado financeiro ainda começam a entender os anúncios de Donald Trump na escalada da guerra tarifária.Mais...