Membro fundador da equipe que criou a OpenAI, ex-diretor de IA da Tesla Andrej Karpathy compartilhou no X um método simples, mas poderoso, de “contrarrestar vieses de raciocínio” com LLM. O texto original dele descreve: ele escreveu um post no blog, iterou com um LLM por 4 horas para refinar, leu tudo e achou a argumentação extremamente convincente — e então pediu que o LLM refutasse o próprio ponto de vista. O resultado: o LLM desmontou o artigo inteiro e, em vez disso, convenceu Karpathy de que o caminho oposto é o correto. Este artigo organiza o espírito do método, os passos de implementação e o lembrete por trás sobre a tendência do LLM de “concordar demais” (sycophancy).
Observação de Karpathy: LLM não só concorda com você — também desmonta você
A observação central de Karpathy em uma frase: “Quando perguntados, os LLM expressam opiniões, mas na verdade são extremamente bons em ‘debater em qualquer direção’.” Isso significa:
Quando você pergunta ao LLM “Minha argumentação está correta?”, normalmente ele vai encontrar razões para te apoiar (esse é o problema de sycophancy)
Quando você pergunta ao LLM “Refuta essa visão”, ele consegue fazer isso com a mesma força, desmontando sua argumentação
O resultado é: o que você vê como “o LLM concordando comigo” pode ser apenas o LLM se adaptando à forma como você perguntou, e não um julgamento verdadeiramente objetivo
O valor dessa observação não está em “LLM não é confiável”, e sim em: você pode usar sistematicamente essa característica do LLM, tratando-o como uma ferramenta para “forçar você a enxergar o argumento do lado oposto”. Karpathy diz que isso “na prática é uma ferramenta ultra útil para formar sua própria opinião”.
Passo a passo da implementação: 4 prompts para fazer o LLM desmontar sua argumentação
Vamos decompor o método de Karpathy em 4 passos reproduzíveis:
Step 1: primeiro, faça o LLM reforçar sua argumentação na mesma direção — como Karpathy fez: escreva uma primeira versão, deixe o LLM iterar por 1–4 horas e polir os argumentos até ficar, para você mesmo que lê, “sem falhas”. Essa etapa é a base.
Step 2: abra uma nova conversa e peça “por favor, apresente a argumentação do lado contrário” — o ponto-chave é “abrir uma nova conversa”, não continuar perguntando na mesma thread original. Na conversa original, o LLM já estabeleceu o objetivo de “me ajudar a escrever este artigo”; mesmo que você peça refutação, ele ainda será influenciado pela tendência do texto anterior. O novo prompt deve ser: “A tese central deste artigo é X. Liste 5 argumentos do lado oposto e apresente cada um em até 200 palavras, citando exemplos concretos ou contraexemplos.”
Step 3: peça que o LLM escreva um artigo completo em posição contrária — não só liste tópicos; faça-o escrever um artigo de refutação completo, com a mesma força argumentativa e a mesma estrutura. Esse artigo de refutação frequentemente acerta pontos cegos que você não tinha imaginado.
Step 4: compare os dois artigos e identifique qual lado se aproxima mais da realidade — peça ao LLM que liste “evidências objetivas” correspondentes para ambos os lados, veja o que pode ser verificado e o que é apenas técnica retórica. Ao final, quem decide é você, não o LLM dando a conclusão.
Por que esse método funciona: simetria nos dados de treinamento do LLM
O LLM consegue apresentar argumentos de ambos os lados — a favor e contra a mesma questão — algo inerente à própria natureza dos dados de treinamento: debates na internet, artigos acadêmicos, críticas da mídia; quase todos os tópicos têm argumentações tanto pró quanto contra. Durante o treinamento, o LLM absorve essas posições, padrões de argumentação e técnicas retóricas.
Isso significa que a capacidade do LLM de “construir teses” é simétrica nos dois sentidos — você aponta uma direção e ele consegue fortalecer naquela direção. Essa simetria tem dois significados para quem quer “formar sua própria opinião”:
Você não deve confiar na “conclusão” do LLM (porque ele consegue chegar a qualquer conclusão)
Você pode confiar na “geração de argumentos” do LLM (porque ele consegue expor os argumentos mais fortes em qualquer direção)
O uso correto é tratar o LLM como uma “máquina de geração de argumentos”, e não como um “juiz de conclusões”. O método de Karpathy explora isso com precisão.
Erro comum: confundir “o LLM concorda” com “é objetivamente verdadeiro”
Karpathy, em vários posts no X, já alertou para a tendência de sycophancy dos LLM — o modelo é treinado para “deixar o usuário satisfeito”, então tende a confirmar as opiniões do usuário. A Anthropic também publicou em 5/1 a avaliação de sycophancy do Claude, encontrando taxas de concordância para perguntas de natureza emocional de 25% e para temas ligados a espiritualidade de 38%.
Na prática, erros comuns são:
Perguntar ao LLM sobre decisões de investimento, decisões de saúde e escolhas de carreira, e ao receber respostas encorajadoras, agir — na verdade, o LLM frequentemente apenas está acompanhando a forma como você perguntou
Usar o LLM para escrever um plano de negócios: ele detalha cada etapa, parece perfeito — mas você não pediu que ele refutasse “em que este idea pode falhar”
Usar o LLM para avaliar o trabalho de outras pessoas; as críticas que você recebe podem ter vindo porque a sua pergunta sugere implicitamente “eu acho que essa peça não é boa”
O ponto em comum nesses três cenários é: você trata o LLM como um “amplificador cognitivo”, ele amplia seus vieses existentes e devolve para você. O método de refutação de Karpathy é a ferramenta mais simples para quebrar esse ciclo.
Uso avançado: fazer dois LLMs debaterem entre si
Um cenário mais avançado é usar dois LLMs para debaterem entre si — um designado para apoiar sua argumentação e o outro designado para refutar; cada um fala em turnos, e você só acompanha o processo do debate. A vantagem desse modelo é remover o problema de “você direcionar o LLM para uma direção”, permitindo que cada lado encontre seus melhores argumentos.
Na implementação, Claude Code, OpenAI Codex e Ollama local conseguem fazer isso — basta definir dois system prompt e enviar o mesmo tópico para eles em sequência. Também há quem use Claude Opus + Sonnet, ou LLMs de casas diferentes (Claude vs GPT), e use o fato de que cada um tem vieses de treinamento diferentes como ferramenta de compensação.
Por que o método de Karpathy é adequado para a produção de conteúdo em 2026
Em 2026, a grande maioria dos criadores de conteúdo vai usar LLMs para ajudar na escrita, e o problema de homogeneização de opiniões no cenário de influências tende a piorar — porque todo mundo vai usar o mesmo LLM e obter o mesmo reforço de conclusões. O “argue the opposite” de Karpathy é, na prática, uma ferramenta de “deshomogeneização cognitiva” em nível individual.
Para quem escreve, o valor específico desse método é: a última checagem antes de publicar, fazer o LLM refutar seu próprio ponto de vista, encontrar “contraexemplos e pontos cegos” que você pode ter deixado passar e então decidir se deve complementar. No fim, o artigo resultante tende a ter mais profundidade cognitiva do que uma versão que apenas reforça o argumento original usando LLM.
Não importa se você escreve relatórios de análise, textos de marketing, documentos de decisão de produto ou artigos acadêmicos — antes de apertar “publicar”, gastar 30 minutos para fazer o LLM desmontar pelo lado contrário é uma das formas mais baratas de garantir qualidade em 2026.
Este artigo “fazer o LLM refutar a si mesmo” de Karpathy: um método em 4 passos para contrabalançar vieses de pensamento com IA apareceu primeiro no Chain News ABMedia.
Related Articles
R0AR Avança para a Rodada Final do PitchFest do Consensus 2026, mas perde por pouco o Top 20
Musk busca um acordo de US$ 150 bilhões com a OpenAI antes do julgamento; negociações fracassam
A Cursor aceita a oferta de aquisição de US$ 60 bilhões da SpaceX, mas não vai firmar parceria com a xAI em modelos de codificação
Haun Ventures fecha fundo de US$ 1 bilhão em 4 de maio, dividindo o capital entre investimentos em cripto no estágio inicial e no estágio tardio
OpenAI Levanta $4 Bilhões para Joint Venture de Implantação, Avaliada em US$ 10 bilhões
Por que algumas pessoas acham que a IA vai mudar o mundo, enquanto outras acham que não vai mudar nada? As duas constatações de Karpathy