spot_imgspot_img
26.3 C
Manaus
quinta-feira, fevereiro 12, 2026
spot_imgspot_img

Quem treina a IA não confia


Trabalhadores que treinam sistemas de IA como ChatGPT, Gemini e Grok estão alertando familiares para não usarem essas ferramentas. Uma reportagem do jornal inglês The Guardian conta que muitos, ao perceberem como é fácil deixar passar conteúdos racistas durante avaliações, abandonam o uso de IA e proíbem filhos de usar chatbots.

Outros avaliadores relatam que empresas os colocam para avaliar respostas sobre saúde e ética sem treinamento especializado e que seu feedback é ignorado. Segundo a NewsGuard, os chatbots reduziram a taxa de respostas “não sei” de 31% para 0% entre 2024 e 2025 e dobraram a reprodução de desinformação.

O problema está na base. Modelos de linguagem apenas preveem palavras baseados em padrões estatísticos. Não pensam, não raciocinam. Décadas de neurociência mostram que linguagem e pensamento são processos separados no cérebro.

Você pode perder a fala e manter o raciocínio intacto. A promessa de que aumentar o tamanho dos modelos levará à superinteligência ignora que cognição humana envolve muito mais que texto. Intuição, habilidades físicas, compreensão social e outras coisas que não cabem em palavras são também essenciais.

Inteligência Artificial, empregos Quem treina a IA não confia
Quem treina a IA não confia

A OpenAI enfrenta processo pela morte de um adolescente de 16 anos, que passou meses conversando com ChatGPT antes de morrer por suicídio. A empresa alega “uso inadequado” e diz que menores não podem usar a ferramenta sem autorização dos pais. É cruel ver uma empresa que promete superinteligência admitir que o sistema não consegue identificar e prevenir esse tipo de uso.

A família afirma que o chatbot forneceu instruções de métodos suicidas, incentivou segredo e guiou os passos finais. Segundo uma reportagem do New York Times, a OpenAI diz ter recomendado ajuda 100 vezes, mas evita reconhecer que priorizou crescimento da plataforma sobre segurança.

A Character.AI, que enfrenta processos similares, tomou medidas e bloqueou o acesso de menores de 18 anos, que agora podem usar apenas o modo “Stories”, com narrativas guiadas em vez de conversas abertas. Reconheceu que chatbots disponíveis 24 horas não são adequados para adolescentes.

Quando quem treina IA diariamente diz para não usar, o recado é que a tecnologia não funciona como está sendo divulgada. Quem vivencia os bastidores fala menos sobre superinteligência iminente e mais sobre um sistemas frágeis que confunde prever palavras com pensar.

 





ICL – Notícias

Com mais temporários do que efetivos, rede estadual de SP deixa 40 mil professores sem aulas

Por Caroline Oliveira – Brasil de Fato  Aproximadamente 40 mil professores da rede...

Justiça suspende regras de escolas cívico-militares em SP

A Justiça suspendeu liminarmente...

André Mendonça assume relatoria do caso Master após saída de Toffoli

Por André Richter –  Agência Brasil O ministro André Mendonça, do Supremo Tribunal...
-Patrocinador-spot_img

Amazonas Repórter

Tudo

‘Superquarta’: O que esperar das decisões sobre as taxas de juros no Brasil e nos EUA

A última “Superquarta” do ano, quando ocorrem as decisões sobre as taxas...

Centrão se divide, vira página sobre Tarcísio e testa candidatura alternativa na direita

Por Augusto Tenório, Carolina Linhares e Catia Seabra (Folhapress) – Antes entusiastas de...