GOVERNO FEDERALspot_imgspot_img
28.3 C
Manaus
quinta-feira, maio 8, 2025
GOVERNO FEDERALspot_imgspot_img

o poder da tecnologia cresceu, mas as alucinações também


Mesmo com sistemas mais avançados, empresas como OpenAI e Google enfrentam desafios crescentes com respostas imprecisas

IA seguranca
Imagem: Anggalih Prasetya/Shutterstock

Compartilhe esta matéria

No mês passado, um bot de IA usado no suporte técnico da Cursor, ferramenta voltada para programadores, causou confusão ao informar erroneamente que os usuários não poderiam mais usar o software em mais de um computador.

O alerta falso, que gerou reclamações e cancelamentos, foi atribuído a um erro do próprio sistema de IA, como esclareceu o CEO da empresa.

Esse caso ilustra um problema recorrente: sistemas de IA, mesmo os mais avançados, ainda cometem erros — chamados de “alucinações” — ao gerar informações incorretas com aparente confiança.

Leia mais:

IA e educação.
Taxas de erro aumentam nos modelos mais recentes, levantando dúvidas sobre o uso seguro da tecnologia em áreas sensíveis (Imagem: Thapana_Studio/Shutterstock)

Apesar dos avanços desde o lançamento do ChatGPT, as taxas de erro seguem preocupantes, especialmente com os chamados “modelos de raciocínio”, desenvolvidos por empresas como OpenAI, Google e DeepSeek, como explica o New York Times em um artigo.

Sistemas poderosos alucinam mais

  • Paradoxalmente, quanto mais sofisticados os sistemas, maior tem sido a incidência de alucinações.
  • Em testes recentes, os modelos mais poderosos da OpenAI — como o o3 e o o4-mini — apresentaram taxas de erro de até 79%, superando os modelos anteriores.
  • Segundo pesquisadores, isso ocorre porque esses sistemas geram respostas com base em probabilidades e não têm uma compreensão real de verdade ou falsidade.

Segurança da IA em jogo

Apesar de tentativas de melhorar a precisão com técnicas como aprendizado por reforço, os erros persistem, inclusive em tarefas simples como resumir notícias. Isso compromete o uso seguro da IA em áreas sensíveis como medicina, direito e negócios.

Especialistas apontam que o problema está longe de ser resolvido. Embora novas ferramentas estejam sendo desenvolvidas para rastrear as origens dos erros, a forma como esses modelos operam ainda é em grande parte opaca, o que desafia a confiabilidade da tecnologia.

Logomarca do ChatGPT em tela de celular colocado na frente de imagem de logomarca da OpenAI
Alucinações frequentes em sistemas da OpenAI e outras grandes empresas levantam preocupações (Imagem: One Artist/Shutterstock)
Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.



Fonte: Olhar Digital

Amazonas Repórter

Tudo
spot_imgspot_img

Senado aprova a Lei da Reciprocidade em resposta ao tarifaço de Trump – Política – CartaCapital

O plenário do Senado aprovou nesta terça-feira 1º, por 70 votos a zero, o projeto de lei que autoriza o governo federal a...

Taxação dos EUA pode prejudicar cooperação climática, diz Marina Silva – Política – CartaCapital

A ministra do Meio Ambiente e Mudança do Clima, Marina Silva, criticou, nesta quinta-feira 3, o governo dos Estados Unidos por elevar o...

Presidente Roberto Cidade avalia que PLOA esteja apta a votação pelo plenário da Aleam na primeira quinzena de dezembro

A Assembleia Legislativa do Amazonas (Aleam) começou a tramitar o Projeto de Lei Orçamentária Anual (PLOA) de 2025 e, conforme o presidente do Parlamento...
spot_imgspot_img
×

Participe do grupo mais interativo da Cidade de Manaus. Sejam muito bem-vindos(as)

WhatsApp Entrar no Grupo