Kimi K2.6 Lidera o Ranking de LLMs da OpenRouter na Primeira Semana, Uso Dispara 7.683%

Mensagem de notícias da Gate, 28 de abril — Kimi K2.6, o modelo carro-chefe da Moonshot AI, chegou ao topo do ranking semanal de LLMs da OpenRouter com 1,88 trilhão de tokens consumidos, disparando 7.683% de semana a semana. O modelo, lançado na OpenRouter em 20 de abril, superou Claude Sonnet 4.6 (1,35T, -3%) e DeepSeek V3.2 (1,24T) em uma semana.

No top dez, a Anthropic afirmou três posições: Claude Sonnet 4.6 em segundo (1,35T, -3%), Claude Opus 4.7 em quarto (1,17T, +180%) e Claude Opus 4.6 em nono (662B, -42%). Opus 4.7 registrou o segundo maior crescimento desta semana, com o uso quase triplicando. Google’s Gemini 3 Flash Preview ficou em quinto (1,03T, -11%), enquanto Stepwise AI’s Step 3.5 Flash (762B, +78%) e NVIDIA’s Nemotron 3 Super free (656B, +25%) também mostraram ganhos notáveis.

Os rankings da OpenRouter são baseados no consumo real de tokens na plataforma, refletindo as preferências reais de uso de API dos desenvolvedores.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Sonhos do Claude, da Anthropic: agente se organiza para recuperar memórias entre tarefas, eliminando duplicidades e contradições

A Anthropic anunciou o Dreams no evento Code with Claude, permitindo que os Claude Managed Agents organizem automaticamente memórias entre várias conversas, eliminem duplicidades e contradições, atualizem itens desatualizados e gerem um banco de memórias pós-processado e auditável; o limite de entrada é de 100 sessions e 4.096 caracteres, com execução assíncrona, concluída em minutos a dezenas de minutos, e suporte à observação via streaming. A prévia da pesquisa precisa ser solicitada; por enquanto, apenas o claude-opus-4-7 e o claude-sonnet-4-6 são suportados, e o lançamento oficial ainda não tem data.

ChainNewsAbmedia1h atrás

A Anthropic se junta à SpaceX em poder de computação: conquista Colossus 1 inteira, com 220 mil GPUs, e o Claude remove limites

A Anthropic anunciou uma parceria de capacidade computacional com a SpaceX para o data center Colossus 1, com a ativação de mais de 220 mil GPUs Nvidia e capacidade de 300MW ou mais. A previsão é que tudo esteja implantado em até um mês para uso da Anthropic, melhorando o desempenho e a experiência do Claude e do Code. Em paralelo, foram relaxados os limites de uso a cada 5 horas para Pro/Max/Team/Enterprise, com a remoção das cotas de pico, e aumento da taxa da API Opus. A expansão também ocorre simultaneamente na infraestrutura na Ásia e na Europa, e no futuro há outras intenções, como “computação de IA em órbita”, mas ainda não há contrato.

ChainNewsAbmedia1h atrás

Engenheiro da Coinbase: agentes de IA podem interromper o modelo de publicidade na web

Erik Reppel, engenheiro da Coinbase, disse que agentes de inteligência artificial poderiam minar fundamentalmente o modelo de negócios da internet, que depende de publicidade. De acordo com Reppel, a economia da web depende fortemente da receita publicitária gerada a partir de usuários humanos, mas agentes de IA contornam esse sistema

CryptoFrontier1h atrás

A Anthropic dobra os limites de taxa do Claude Code após garantir capacidade de 300 MW em um acordo com a SpaceX

De acordo com a Odaily, a Anthropic assinou um acordo com a SpaceX para acessar toda a capacidade de computação do data center Colossus 1, garantindo mais de 300 megawatts de nova capacidade e mais de 220.000 GPUs NVIDIA no prazo de um mês. A partir de agora, os limites de taxa de cinco horas do Claude Code para o Pro,

GateNews2h atrás

A OpenAI divulga o protocolo de rede do supercomputador MRC! Em parceria com a Nvidia, AMD e a Microsoft para criar a infraestrutura do Stargate

A OpenAI publicou o protocolo MRC para a rede de supercomputação de IA, em parceria com AMD, Microsoft, NVIDIA e outros, e com código aberto na OCP. O MRC divide os dados para trafegar por vários caminhos, desvia de obstáculos em nível de microssegundos, reduz a congestão e mantém a sincronização de GPUs, resolvendo o gargalo de transmissão em grandes clusters de treinamento. Instalações como Stargate, no Texas (Abilene), já implantaram interfaces de 800 Gb/s e colocaram o sistema em uso em treinos reais.

ChainNewsAbmedia2h atrás
Comentário
0/400
Sem comentários