Mensagem do Gate News, 29 de abril — a pesquisadora de IA Aran Komatsuzaki realizou uma análise comparativa da eficiência de tokenização em seis dos principais modelos de IA traduzindo o artigo seminal de Rich Sutton “The Bitter Lesson” para nove idiomas e processando-os por meio dos tokenizadores da OpenAI, Gemini, Qwen, DeepSeek, Kimi e Claude. Usando a contagem de tokens da versão em inglês na OpenAI como base (1x), o estudo revelou disparidades significativas: processar o mesmo conteúdo em chinês exigiu 1,65x tokens no Claude, em comparação com apenas 1,15x na OpenAI. O hindi mostrou um resultado ainda mais extremo no Claude, excedendo a base em mais de 3x. A Anthropic ficou na última posição entre os seis modelos testados.
Ponto crítico: quando o mesmo texto em chinês foi processado em diferentes modelos—todos medidos contra a mesma base em inglês—os resultados divergem dramaticamente: a Kimi consumiu apenas 0,81x tokens (menos do que o inglês), o Qwen 0,85x, enquanto o Claude exigiu 1,65x. Essa diferença revela um problema puro de eficiência de tokenização, não uma questão inerente de idioma. Os modelos de chinês demonstraram eficiência superior no processamento do chinês, sugerindo que a disparidade decorre da otimização do tokenizador e não do idioma em si.
As implicações práticas para os usuários são substanciais: o aumento do consumo de tokens eleva diretamente os custos da API, amplia a latência de resposta dos modelos e esgota as janelas de contexto com mais rapidez. A eficiência de tokenização depende da composição linguística dos dados de treinamento de um modelo—modelos treinados predominantemente em inglês comprimem o texto em inglês de forma mais eficiente, enquanto idiomas com menor representação em dados são tokenizados em fragmentos menores e menos eficientes.
A conclusão de Komatsuzaki ressalta um princípio fundamental: o tamanho do mercado determina a eficiência de tokenização. Mercados maiores recebem melhor otimização, enquanto idiomas com menor representação enfrentam custos de token significativamente mais altos.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
Sierra levanta US$ 95 milhões, valuation de US$ 15,8 bilhões: Bret Taylor, com o papel de presidente da OpenAI, disputa a liderança do atendimento ao cliente em IA
A Sierra, cofundada por Bret Taylor, anunciou a conclusão de uma captação Series E de US$ 950 milhões, com avaliação de US$ 1,58 bilhões, liderada pela Tiger Global e pela GV. Em 8 rodadas, atingiu US$ 150 milhões em ARR e uma taxa de penetração na Fortune 50 acima de 40%. A empresa se posiciona como uma plataforma vertical de atendimento ao cliente centrada em agentes de IA, oferecendo fluxos de trabalho prontos para uso. Taylor também é presidente do conselho da OpenAI, com foco no tema de governança e divulgações de interesses.
ChainNewsAbmedia1h atrás
A API do Gemini vai usar Webhooks: o Google elimina a dor da repetição (polling) de tarefas longas, e o Batch/Veo podem ser enviados em tempo real
A Google Gemini API lançou Webhooks em 4 de maio: quando tarefas longas forem concluídas, ela envia automaticamente o resultado para a URL de callback, substituindo a verificação em polling, reduzindo uso de recursos e latência e simplificando o código. O recurso é compatível com Batch API, Veo2 e inferência com long context; é especialmente adequado para serverless. Em comparação, o OpenAI tende a usar SSE, e a Anthropic ainda recorre a polling; a Google destaca a infraestrutura voltada ao desenvolvedor. No futuro, o foco será em mecanismos de segurança e na expansão dos modelos. Para desenvolvedores em Taiwan, a integração imediata pode reduzir de forma significativa o quota e a carga do sistema.
ChainNewsAbmedia1h atrás
Krutrim muda para serviços de computação em nuvem de IA em 5 de maio, publica o primeiro lucro enquanto a receita do EF26 chega a US$ 31,6 milhões
De acordo com a Press Trust of India, a empresa indiana de IA Krutrim se reposicionou como provedora doméstica de serviços de nuvem de IA em 5 de maio, suspendendo seus esforços de design de chips e direcionando capital e talentos para a infraestrutura de nuvem.
A empresa informou uma receita do ano fiscal de 26 de aproximadamente 3 bilhões de rúpias (US$ 31,6 m
GateNews2h atrás
Investimentos da Anthropic e da OpenAI ultrapassam US$ 1,1 bilhão em operações de cripto no varejo desde o início de 2026
De acordo com a Bloomberg, investidores de varejo colocaram aproximadamente US$ 1,13 bilhão em operações alavancadas em derivativos de empresas privadas de IA desde o início de 2026. As plataformas cripto Ventuals e PreStocks permitem negociação 24 horas por dia em empresas como Anthropic, OpenAI e SpaceX sem conceder diretamente e
GateNews3h atrás