Quem treina a IA não confia


Trabalhadores que treinam sistemas de IA como ChatGPT, Gemini e Grok estão alertando familiares para não usarem essas ferramentas. Uma reportagem do jornal inglês The Guardian conta que muitos, ao perceberem como é fácil deixar passar conteúdos racistas durante avaliações, abandonam o uso de IA e proíbem filhos de usar chatbots.

Outros avaliadores relatam que empresas os colocam para avaliar respostas sobre saúde e ética sem treinamento especializado e que seu feedback é ignorado. Segundo a NewsGuard, os chatbots reduziram a taxa de respostas “não sei” de 31% para 0% entre 2024 e 2025 e dobraram a reprodução de desinformação.

O problema está na base. Modelos de linguagem apenas preveem palavras baseados em padrões estatísticos. Não pensam, não raciocinam. Décadas de neurociência mostram que linguagem e pensamento são processos separados no cérebro.

Você pode perder a fala e manter o raciocínio intacto. A promessa de que aumentar o tamanho dos modelos levará à superinteligência ignora que cognição humana envolve muito mais que texto. Intuição, habilidades físicas, compreensão social e outras coisas que não cabem em palavras são também essenciais.

Inteligência Artificial, empregos Quem treina a IA não confia
Quem treina a IA não confia

A OpenAI enfrenta processo pela morte de um adolescente de 16 anos, que passou meses conversando com ChatGPT antes de morrer por suicídio. A empresa alega “uso inadequado” e diz que menores não podem usar a ferramenta sem autorização dos pais. É cruel ver uma empresa que promete superinteligência admitir que o sistema não consegue identificar e prevenir esse tipo de uso.

A família afirma que o chatbot forneceu instruções de métodos suicidas, incentivou segredo e guiou os passos finais. Segundo uma reportagem do New York Times, a OpenAI diz ter recomendado ajuda 100 vezes, mas evita reconhecer que priorizou crescimento da plataforma sobre segurança.

A Character.AI, que enfrenta processos similares, tomou medidas e bloqueou o acesso de menores de 18 anos, que agora podem usar apenas o modo “Stories”, com narrativas guiadas em vez de conversas abertas. Reconheceu que chatbots disponíveis 24 horas não são adequados para adolescentes.

Quando quem treina IA diariamente diz para não usar, o recado é que a tecnologia não funciona como está sendo divulgada. Quem vivencia os bastidores fala menos sobre superinteligência iminente e mais sobre um sistemas frágeis que confunde prever palavras com pensar.

 





ICL – Notícias

Caminhos da Reportagem aborda riscos do consumo de ultraprocessados

O consumo de ultraprocessados...

Museu do Futebol lança audioguia em formato de programa de rádio

Aumentar a acessibilidade para...

Prefeito David Almeida amplia rede de esporte comunitário e transforma área abandonada em complexo social na zona Norte de Manaus

O prefeito de Manaus, David Almeida, entregou, neste domingo, 29/3, a praça e a quadra poliesportiva do conjunto Mundo Novo, na avenida Max Teixeira,...

Amazonas Repórter

Tudo

Diretor de Marketing do Fortaleza Esporte Clube, Marcel Pinheiro apresenta palestra em Manaus, nesta terça-feira (26)

O diretor de Marketing do Fortaleza Esporte Clube, Marcel Pinheiro, estará na Faculdade Santa Teresa (FST), nesta terça-feira (26). Considerado um dos principais nomes...

Cão Orelha: por que violência contra animais cresce em grupos online de adolescentes

Por Amanda Audi – Agência Pública  Uma menina de 13 anos faz uma...