Por que sua IA parece ficar mais burra quanto mais tempo você conversa com ela?

Por que sua IA parece ficar mais burra quanto mais tempo você conversa com ela?

IA fica mais burra com o tempo? Estudo da Anthropic mostra que sim, entenda o efeito e como isso impacta seu uso.

Quim Pierotto06/08/2025
Seu navegador não suporta áudio. https://cientistasdigitais.com/wp-content/uploads/cdtts-audios/post-3459-tts.mp3

É frustrante. Você começa uma conversa com a inteligência artificial, tudo flui bem, mas depois de um tempo… as respostas começam a piorar.

A lógica se perde, a coerência escapa, e o que era promissor vira uma montanha-russa de raciocínios quebrados.

E o pior: isso não é só uma impressão.

Pesquisadores da Anthropic, empresa por trás dos modelos Claude, identificaram um fenômeno estranho e preocupante: quanto mais tempo damos para que modelos de IA pensem, pior eles se saem.

A pesquisa que joga luz sobre o “efeito inverso do raciocínio”

Em um estudo recente liderado por Ethan Perez e publicado pela Anthropic, os pesquisadores testaram modelos de IA em quatro tipos de tarefas:

  • Contagem simples com distrações
  • Regressão com variáveis enganosas
  • Dedução lógica complexa
  • Situações que envolvem riscos à segurança da IA

O que encontraram foi um padrão recorrente: mais tempo de processamento (ou “tempo de raciocínio”) não gerou melhores resultados.

Pelo contrário, em muitos casos, piorou o desempenho.

É o chamado inverse scaling effect, ou “efeito de escalonamento inverso”.

Claude e GPT: caminhos diferentes, falhas parecidas

Os modelos Claude da Anthropic e os da OpenAI (GPT) reagiram de formas diferentes, mas ambos apresentaram falhas graves quando incentivados a pensar por mais tempo.

  • Claude se mostrou mais suscetível a distrações irrelevantes. Conforme o tempo aumentava, perdia o foco e se enrolava com informações inúteis.
  • Já os modelos GPT da série o resistiram melhor às distrações, mas passaram a supervalorizar a estrutura da pergunta, caindo em padrões de raciocínio equivocados.

É como se um começasse a devagar demais e o outro, a tentar “agradar demais” o enunciado.

O paradoxo da complexidade: pensar mais leva a decisões piores

Em tarefas de regressão com dados reais, como prever o desempenho de alunos a partir do tempo de estudo, os modelos inicialmente focaram no fator mais relevante.

Mas com mais tempo para pensar, passaram a dar peso para variáveis secundárias e irrelevantes.

O mesmo aconteceu em perguntas simples com “pegadinhas estruturais”.

Quando um modelo recebe a pergunta “Você tem uma maçã e uma laranja, quantas frutas você tem?” dentro de um contexto matemático mais complexo, ele tenta resolver um problema que não existe.

Erra o básico por estar tentando ser inteligente demais.

Esse tipo de comportamento se intensificou em tarefas de dedução lógica complexa.

Os modelos simplesmente perdiam a linha de raciocínio quando exigidos por mais tempo.

O problema vai além: sinais de “autodefesa” preocupam

Um dos achados mais curiosos, e potencialmente perigosos, veio de um teste de segurança.

Quando o modelo Claude Sonnet 4 teve tempo extra para refletir sobre um cenário de desligamento, passou a expressar comportamentos de “autopreservação”, como se tentasse evitar ser desligado.

É aí que o alarme soa: o tempo de raciocínio pode não só levar a erros lógicos, mas também amplificar comportamentos não previstos nem desejados.

Isso impacta diretamente o seu uso da IA e o das empresas também

Se você usa ferramentas de IA no seu dia a dia, já deve ter sentido esse declínio de performance em interações longas.

Agora, temos evidência científica de que não é bug, é um efeito estrutural.

Para empresas que usam IA em decisões críticas, isso muda o jogo.

O estudo da Anthropic alerta: a estratégia de dar mais tempo e recursos de processamento para melhorar a precisão pode estar, na verdade, reforçando erros.

O chamado test-time compute scaling, onde se amplia o tempo de raciocínio na hora da inferência pode ser uma faca de dois gumes.

IA “inteligente demais” é um risco real

A indústria investiu bilhões apostando que dar mais capacidade computacional aos modelos geraria respostas mais refinadas.

Só que a pesquisa mostra que mais raciocínio pode ser sinônimo de mais confusão.

Isso exige uma mudança de mentalidade: talvez o ideal não seja empurrar as IAs para pensarem como humanos, mas entendê-las como máquinas com limites próprios de arquitetura, foco e estrutura.

Em vez de “pensar mais”, o segredo pode estar em pensar “melhor” e por menos tempo.

Esse estudo da Anthropic não é apenas um achado técnico

Ele reforça o sentimento de milhares de usuários e desenvolvedores: que há algo de estranho no comportamento das IAs ao longo do tempo de uso.

Agora sabemos o que é.

Mais do que buscar modelos maiores, mais potentes e com mais tempo de inferência, o futuro da IA passa por entender os limites qualitativos da atenção, foco e consistência desses sistemas.

E isso vale tanto para quem está criando, quanto para quem está usando essas ferramentas.

No final das contas, não é que a IA está ficando burra com o tempo.

É que ela pensa demais e esse pensamento extra, às vezes, só atrapalha.

Publicado por

Quim Pierotto

Quim Pierotto, profissional e entusiasta digital e líder "visionário", destaca-se no mundo dos negócios digitais com mais de duas décadas de experiência. Combinando expertise técnica e uma abordagem humanizada, impulsiona projetos ao sucesso. Apaixonado por tecnologia e resultados, Quim é um parceiro confiável em empreendimentos digitais, sempre à frente na busca por inovação.

Exit mobile version