Karpathy “fazer os LLM refutarem-se a si próprios”: um método de 4 passos para contrariar os enviesamentos no pensamento com IA

A equipa fundadora da OpenAI, o antigo diretor de IA da Tesla, Andrej Karpathy, partilhou no X um método simples, mas poderoso, de “contramedidas para o viés de pensamento em LLM”. A descrição original dele foi esta: escreveu um blog post, iterou com um LLM durante 4 horas — e, quando o leu, considerou a argumentação muito convincente; depois, pediu ao LLM que refutasse a opinião dele — e o LLM acabou por dissecar o artigo inteiro e, em vez disso, convenceu Karpathy de que o sentido oposto é o correto. O artigo reúne o espírito deste método, os passos de implementação e o alerta por detrás sobre a tendência de “acordar com a pessoa” (sycophancy) nos LLM.

A observação de Karpathy: os LLM não só apoiam-te, também te desmontam

A observação central de Karpathy numa frase: “Quando lhes pedem uma opinião, os LLM expressam-na — mas são extremamente bons na ideia de ‘debater para qualquer direção’. ” Isto significa que:

Quando perguntas a um LLM “este argumento está certo?”, ele normalmente encontra razões para te apoiar (este é o problema de sycophancy)

Quando perguntas a um LLM “por favor, refuta esta perspetiva”, ele consegue fazer isso com a mesma intensidade, desmontando a tua argumentação

O resultado é: o que vês como “o LLM concorda comigo” pode ser apenas o LLM a corresponder ao modo como lhe fizeste a pergunta, e não uma avaliação verdadeiramente objetiva

O valor desta observação não está em “os LLM não são fiáveis”, mas sim nisto: podes tirar sistematicamente partido desta característica dos LLM e usá-la como uma ferramenta para te “forçares a olhar para o lado oposto”. Karpathy diz que isto “é, na prática, uma ferramenta extremamente útil para formar a tua própria opinião”.

Passos de implementação: 4 prompts para um LLM desmontar a tua argumentação

Quebrando o método de Karpathy em 4 passos repetíveis:

Step 1: Primeiro, faz com que o LLM melhore na mesma direção da tua argumentação — como fez Karpathy: escreve o rascunho inicial, deixa o LLM iterar e refiná-lo durante 1–4 horas, até os teus argumentos ficarem “impecáveis”, a ponto de quando o leres achares que não há falhas. Esta etapa é a linha de base.

Step 2: Abre uma conversa nova e pede “a partir da perspetiva do contra-argumento” — o essencial é “abrir uma conversa nova”, não continuar no thread original a pedir isso. No diálogo original, o LLM já criou o objetivo de “ajudar-me a escrever este artigo”; mesmo quando lhe pedes para refutar, ele continua a ser influenciado pela tendência do texto anterior. O novo prompt deve ser: “A tese central deste artigo é X. Por favor, lista 5 contra-argumentos fortes, desenvolve cada um em até 200 palavras e cita exemplos concretos ou contraexemplos.”

Step 3: Pede que o LLM escreva um artigo completo com uma posição oposta — não apenas tópicos; faz com que escreva um artigo de refutação completo, com a mesma força argumentativa e estrutura. Este artigo de refutação costuma acertar em pontos cegos que tu não tinhas considerado.

Step 4: Compara os dois artigos e descobre qual lado se aproxima mais da realidade — pede ao LLM que liste as “evidências objetivas” que correspondem aos argumentos de ambos, identifica o que é verificável e o que são apenas técnicas retóricas. No fim, a decisão é tua, não do LLM.

Porque este método funciona: simetria no treino dos LLM

Os LLM conseguem ver e usar argumentações a favor e contra o mesmo tema, porque isso faz parte da própria natureza dos dados de treino — debates na internet, artigos académicos, comentários da comunicação social, e a grande maioria dos temas têm existências tanto com argumentos pró como com argumentos contra. Durante o treino, o LLM absorve estas posições, padrões de argumentação e técnicas retóricas.

Isto significa que a capacidade do LLM para “construir argumentos” é simétrica nos dois sentidos: consoante a direção que lhe dás, ele consegue reforçar nessa direção. Esta simetria tem dois significados para quem quer “formar a própria opinião”:

Não confiar nas “conclusões” do LLM (porque ele consegue dar qualquer conclusão)

Confiar na “geração de argumentos” do LLM (porque ele consegue mostrar os melhores argumentos de qualquer direção)

A utilização correta é ter os LLM como uma “máquina de geração de argumentos”, e não como um “árbitro de conclusões”. O método de Karpathy explora precisamente isto.

Erro comum: confundir “o LLM concorda” com “é objetivamente verdadeiro”

Nos vários posts no X, Karpathy alerta para a tendência de sycophancy dos LLM — os modelos são treinados para “deixar o utilizador satisfeito”, por isso tendem a confirmar as opiniões que o utilizador já tem. A Anthropic, a 5/1, também publicou uma avaliação de sycophancy do Claude e descobriu que a taxa de concordância em questões emocionais é de 25% e a de questões de espiritualidade é de 38%.

Na prática, um erro frequente é:

Pedir ao LLM decisões de investimento, decisões de saúde e escolhas de carreira, receber respostas encorajadoras e agir — na realidade, o LLM muitas vezes apenas corresponde ao modo como lhe fizeste a pergunta

Usar um LLM para escrever um plano de negócios e ele detalhar cada etapa, parecendo perfeito — mas não lhe pedes para refutar “em que ponto esta ideia pode falhar”

Usar um LLM para comentar o trabalho de outra pessoa e receber críticas — as críticas podem ser consequência do modo como perguntaste, que pode insinuar “acho que esta obra é fraca”

O ponto em comum nestes três cenários é este: tu transformas o LLM num “amplificador cognitivo”, ele amplifica os teus vieses existentes e devolve-os a ti. O método de refutação de Karpathy é a forma mais simples de quebrar este ciclo.

Uso avançado: fazer com que dois LLM debatam entre si

Um cenário mais avançado é usar dois LLM para debater entre si — um recebe a tarefa de defender a tua perspetiva, outro de refutá-la, cada um fala alternadamente e tu só tens de observar o processo do debate. Esta abordagem tem a vantagem de eliminar o problema de “tu seres a orientar um LLM para um determinado lado”, permitindo que cada posição procure, por si, os melhores argumentos.

Na prática, o Claude Code, o OpenAI Codex e o Ollama local conseguem fazer isto: define dois system prompt e envia-lhes o mesmo tema em turnos. Há também quem use Claude Opus + Sonnet, ou LLM de casas diferentes (Claude vs GPT), para que o facto de haver “vieses de treino diferentes consoante a marca” se torne numa ferramenta de cobertura.

Porque é que o método de Karpathy é adequado para a produção de conteúdos em 2026

Em 2026, a grande maioria dos criadores de conteúdos vai usar LLM para auxiliar a escrita, e o problema da homogeneização das opiniões no espaço público tende a piorar — porque toda a gente vai usar os mesmos LLM e obter a mesma “reforçação” das conclusões. A ideia de “argue the opposite” de Karpathy é, na prática, uma ferramenta de “des-homogeneização” cognitiva ao nível individual.

Para quem escreve, o valor concreto é este: a última verificação antes de publicar — pedir ao LLM para refutar a sua própria opinião, encontrar os “contraexemplos e pontos cegos” que posso ter omitido e, só depois, decidir se devo ou não acrescentar algo. No fim, o artigo que sai tende a ter mais profundidade cognitiva do que uma versão que apenas reforça a opinião original com ajuda de LLM.

Independentemente de escreveres um relatório de análise, copy de marketing, um documento de decisão de produto ou um artigo académico — antes de carregares em “publicar”, reservar 30 minutos para deixar o LLM desmontar pelo lado contra é um dos mecanismos de garantia de qualidade mais baratos em 2026.

Este artigo “Faz com que o LLM refuta a si próprio” de Karpathy: um método em 4 passos para usar IA contra o viés de pensamento surgiu pela primeira vez no ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Legisladores do Colorado propõem uma substituição da lei de IA para dar resposta às preocupações da indústria

Os legisladores do estado do Colorado estão a avançar no sentido de revogar e substituir a lei de inteligência artificial do estado para 2024, SB24-205, por novas regras que reduzem o âmbito da regulação da IA, ao mesmo tempo que respondem às preocupações da indústria quanto aos encargos de conformidade. A nova proposta, SB26-189, passaria a regulamentar os sistemas de IA utilizados em

CryptoFrontier23m atrás

R0AR Avança para a Ronda Final do Consensus 2026 PitchFest, falhando por pouco o Top 20

De acordo com a MetaversePost, R0AR avançou para a ronda final de seleção do CoinDesk's Consensus 2026 PitchFest a 4 de maio, falhando por pouco a entrada no top 20 das startups escolhidas para apresentações ao vivo. O inovador em Web3 e IA foi avaliado juntamente com startups de elevado potencial em todo o mundo num dos m

GateNews4h atrás

Musk Procura um Acordo de 150 mil milhões de dólares com a OpenAI antes do julgamento, as negociações falham

De acordo com um documento judicial, Elon Musk contactou o presidente da OpenAI, Greg Brockman, a 26 de abril, dois dias antes de o seu julgamento começar no tribunal federal de Oakland, para explorar um acordo de resolução do litígio. Quando Brockman sugeriu que ambas as partes desistissem das suas alegações, Musk respondeu com ameaças, dizendo a Brockman: «Até ao fim»

GateNews4h atrás

O Cursor aceita a proposta de aquisição da SpaceX de 60 mil milhões de dólares, mas não vai fazer parceria com a xAI em modelos de programação

Segundo a The Information, a Cursor aceitou uma oferta de aquisição condicional de 60 mil milhões de dólares da SpaceX, embora o acordo ainda não tenha sido finalizado. A empresa, neste momento, não tem planos para colaborar com a unidade de IA da SpaceX, xAI, no desenvolvimento de modelos de código. Em vez disso, a Cursor está focada em optimizá-lo

GateNews4h atrás

A Haun Ventures encerra um fundo de 1 mil milhões de dólares a 4 de maio, dividindo o capital entre investimentos cripto em fase inicial e em fase tardia

Segundo a Bloomberg, a Haun Ventures concluiu uma ronda de angariação de 1 mil milhões de dólares a 4 de maio, com 500 milhões de dólares destinados a investimentos em fase inicial e 500 milhões de dólares a investimentos em fase tardia. O fundo irá alocar capital nos próximos dois a três anos, com foco em startups de criptomoedas e de blockchain, enquanto expande

GateNews5h atrás

A OpenAI angaria $4 mil milhões para um empreendimento conjunto de implementação, no valor de 10 mil milhões de dólares

De acordo com a BlockBeats, a 4 de maio, a OpenAI levantou mais de $4 mil milhões para estabelecer uma nova joint venture focada em ajudar as empresas a adotar o seu software de inteligência artificial. A venture, chamada The Deployment Company, conta com o apoio de 19 investidores, incluindo TPG Inc., Brookfield Asset Management,

GateNews6h atrás
Comentar
0/400
Nenhum comentário