Em 2025, ao longo de todo o ano, a comunidade de engenharia de IA discutiu sem parar qual é que, na questão «MCP vs CLI», é mais adequado para chamadas de ferramentas por agentes; e a tese da Anthropic, publicada em novembro de 2025, «Code execution with MCP», redefiniu o problema a partir de primeiros princípios. akshay_pachaar organizou a thread em 5/10 e explicou que o problema nunca esteve no protocolo em si, mas sim no hábito antigo de «enfiar todas as descrições de ferramentas no context no início de uma session»; a solução da Anthropic consiste em fazer o modelo escrever código para chamar ferramentas, ficando o runtime responsável por gerir os detalhes das ferramentas. O novo modelo ficou conhecido como «Code Mode».
O problema do modo antigo: a maior parte não é usada em 150K tokens
A estrutura desperdiçada no modo MCP antigo:
Playwright MCP: 13.7K tokens (encaixado por completo de uma vez)
Chrome DevTools MCP: 18K tokens
5 configurações de server: queimam 55K tokens antes sequer de começar a trabalhar
Uma única execução de workflow completo: pode inchar até 150K tokens
O que o modelo usa de facto: a esmagadora maioria não é aproveitada
Os críticos defendem que se use CLI, mas a CLI em aplicações multi-tenant é propensa a erros, falta de typed contract, e um agente que não conhece bem as APIs tem de dar várias voltas a interpretar saídas em texto. As duas facções têm razão em parte, mas ambas identificam o problema de forma errada.
A solução: o modelo escreve código para chamar ferramentas, sem fazer calls diretas a partir do context
O núcleo do «Code Mode» proposto pela Anthropic:
Inverter o papel do modelo: em vez de o modelo chamar ferramentas via context, o modelo escreve código e é o runtime que chama as ferramentas
As ferramentas ficam no runtime; o modelo só vê a parte que ele próprio importou
O type segue o import: o modelo importa qual ferramenta, e fica com o contrato de tipos dessa ferramenta
Chamar binários instalados via Bash (git, curl, etc.)
Chamar APIs exclusivas via typed module imports
Exemplo da Anthropic: um fluxo de texto de Google Drive entra num Salesforce CRM para atualização. No método antigo, carrega-se o schema das duas ferramentas e o modelo envia a mesma sequência de texto duas vezes; no novo método, com apenas 10 linhas de TypeScript, basta importar o que é necessário — e a mesma tarefa passa de uma pressão de 150K para 2K tokens, menos 98,7%.
Leva a Cloudflare ao extremo: 2,500 endpoint API, de 1,17M tokens para 1K
A Cloudflare fez uma versão mais radical:
Dimensão original da API: 2,500 endpoint, schema total de 1,17M tokens
Nova abordagem: expor apenas duas funções, search e execute, totalizando 1K tokens
O agente escreve código primeiro para search no diretório de ferramentas e depois faz execute da ferramenta correspondente
Taxa de compressão: superior a 1,000 vezes
A afirmação «MCP está morto» está errada — a Anthropic revelou que a descarga do MCP SDK atingiu 3 centenas de milhões, no início do ano era 1 centena de milhões, e é uma das infraestruturas para agentes com crescimento mais rápido. O que está morto é este estilo: «carregar todas as ferramentas de uma vez no início da session» — e esse, por definição, era uma má ideia. Para developers que escrevem agentes em 2026, a regra é simples: as definições de ferramentas pertencem ao code, não ao context; o modelo escreve algumas linhas de código para chamar, e o runtime trata do resto.
Eventos concretos a acompanhar: a velocidade a que as descargas do MCP SDK continuam a subir, se a Anthropic vai padronizar o Code Mode como modo de recomendação oficial no âmbito das especificações MCP, e a evolução da adoção do Code Mode por outras plataformas de agentes, como OpenAI, Google, Cursor, etc.
Este artigo sobre o Code Mode da Anthropic para resolver a disputa MCP vs CLI: as ferramentas ficam no runtime e os tokens passam de 150K para 2K, tendo aparecido pela primeira vez em Cadeia de Notícias ABMedia.
Related News
Anthorpic lança um AI Agent especializado em finanças, exclusivo para empresas — pessoas da indústria revelam o motivo de que o Claude não consegue substituir os analistas
OpenAI revela impacto inesperado na pontuação do CoT: manter a monitorização da cadeia de pensamento é uma linha de defesa crucial para o alinhamento de agentes de IA
Engenheiros da Anthropic: o HTML é o melhor formato de saída para o Claude Code, e não o Markdown
Claude/GPT será que gostam demasiado de agradar? Um excerto de prompt em Claude.md faz com que a IA dê respostas firmes e precisas
Líder do Claude Code Boris: os agentes de IA aumentam a produtividade humana e reescrevem a história do desenvolvimento de software