Por que sua IA parece ficar mais burra quanto mais tempo você conversa com ela?

IA fica mais burra com o tempo? Estudo da Anthropic mostra que sim, entenda o efeito e como isso impacta seu uso.

Quim PierottoQuim Pierotto06/08/2025
Por que sua IA parece ficar mais burra quanto mais tempo você conversa com ela?

É frustrante. Você começa uma conversa com a inteligência artificial, tudo flui bem, mas depois de um tempo… as respostas começam a piorar.

A lógica se perde, a coerência escapa, e o que era promissor vira uma montanha-russa de raciocínios quebrados.

E o pior: isso não é só uma impressão.

Pesquisadores da Anthropic, empresa por trás dos modelos Claude, identificaram um fenômeno estranho e preocupante: quanto mais tempo damos para que modelos de IA pensem, pior eles se saem.

A pesquisa que joga luz sobre o “efeito inverso do raciocínio”

Em um estudo recente liderado por Ethan Perez e publicado pela Anthropic, os pesquisadores testaram modelos de IA em quatro tipos de tarefas:

  • Contagem simples com distrações
  • Regressão com variáveis enganosas
  • Dedução lógica complexa
  • Situações que envolvem riscos à segurança da IA

O que encontraram foi um padrão recorrente: mais tempo de processamento (ou “tempo de raciocínio”) não gerou melhores resultados.

Pelo contrário, em muitos casos, piorou o desempenho.

É o chamado inverse scaling effect, ou “efeito de escalonamento inverso”.

Claude e GPT: caminhos diferentes, falhas parecidas

Os modelos Claude da Anthropic e os da OpenAI (GPT) reagiram de formas diferentes, mas ambos apresentaram falhas graves quando incentivados a pensar por mais tempo.

  • Claude se mostrou mais suscetível a distrações irrelevantes. Conforme o tempo aumentava, perdia o foco e se enrolava com informações inúteis.
  • Já os modelos GPT da série o resistiram melhor às distrações, mas passaram a supervalorizar a estrutura da pergunta, caindo em padrões de raciocínio equivocados.

É como se um começasse a devagar demais e o outro, a tentar “agradar demais” o enunciado.

O paradoxo da complexidade: pensar mais leva a decisões piores

Em tarefas de regressão com dados reais, como prever o desempenho de alunos a partir do tempo de estudo, os modelos inicialmente focaram no fator mais relevante.

VEJA TAMBÉM:  Análise de Dados: Preditiva vs Prescritiva

Mas com mais tempo para pensar, passaram a dar peso para variáveis secundárias e irrelevantes.

O mesmo aconteceu em perguntas simples com “pegadinhas estruturais”.

Quando um modelo recebe a pergunta “Você tem uma maçã e uma laranja, quantas frutas você tem?” dentro de um contexto matemático mais complexo, ele tenta resolver um problema que não existe.

Erra o básico por estar tentando ser inteligente demais.

Esse tipo de comportamento se intensificou em tarefas de dedução lógica complexa.

Os modelos simplesmente perdiam a linha de raciocínio quando exigidos por mais tempo.

O problema vai além: sinais de “autodefesa” preocupam

Um dos achados mais curiosos, e potencialmente perigosos, veio de um teste de segurança.

Quando o modelo Claude Sonnet 4 teve tempo extra para refletir sobre um cenário de desligamento, passou a expressar comportamentos de “autopreservação”, como se tentasse evitar ser desligado.

É aí que o alarme soa: o tempo de raciocínio pode não só levar a erros lógicos, mas também amplificar comportamentos não previstos nem desejados.

Isso impacta diretamente o seu uso da IA e o das empresas também

Se você usa ferramentas de IA no seu dia a dia, já deve ter sentido esse declínio de performance em interações longas.

Agora, temos evidência científica de que não é bug, é um efeito estrutural.

Para empresas que usam IA em decisões críticas, isso muda o jogo.

O estudo da Anthropic alerta: a estratégia de dar mais tempo e recursos de processamento para melhorar a precisão pode estar, na verdade, reforçando erros.

O chamado test-time compute scaling, onde se amplia o tempo de raciocínio na hora da inferência pode ser uma faca de dois gumes.

IA “inteligente demais” é um risco real

A indústria investiu bilhões apostando que dar mais capacidade computacional aos modelos geraria respostas mais refinadas.

VEJA TAMBÉM:  Supabase: A Alternativa Open-Source ao Firebase

Só que a pesquisa mostra que mais raciocínio pode ser sinônimo de mais confusão.

Isso exige uma mudança de mentalidade: talvez o ideal não seja empurrar as IAs para pensarem como humanos, mas entendê-las como máquinas com limites próprios de arquitetura, foco e estrutura.

Em vez de “pensar mais”, o segredo pode estar em pensar “melhor” e por menos tempo.

Esse estudo da Anthropic não é apenas um achado técnico

Ele reforça o sentimento de milhares de usuários e desenvolvedores: que há algo de estranho no comportamento das IAs ao longo do tempo de uso.

Agora sabemos o que é.

Mais do que buscar modelos maiores, mais potentes e com mais tempo de inferência, o futuro da IA passa por entender os limites qualitativos da atenção, foco e consistência desses sistemas.

E isso vale tanto para quem está criando, quanto para quem está usando essas ferramentas.

No final das contas, não é que a IA está ficando burra com o tempo.

É que ela pensa demais e esse pensamento extra, às vezes, só atrapalha.

Quim Pierotto
Quim Pierotto, profissional e entusiasta digital e líder "visionário", destaca-se no mundo dos negócios digitais com mais de duas décadas de experiência. Combinando expertise técnica e uma abordagem humanizada, impulsiona projetos ao sucesso. Apaixonado por tecnologia e resultados, Quim é um parceiro confiável em empreendimentos digitais, sempre à frente na busca por inovação.
Artigos criados 233

Artigos relacionados

Digite acima o seu termo de pesquisa e prima Enter para pesquisar. Prima ESC para cancelar.

Voltar ao topo