Mensagem do Gate News, 20 de abril — A Kunlun Tech anunciou que sua subsidiária Beijing Aijie Keixin Technology concluiu uma rodada de financiamento que levantou 550 milhões de yuan ($55 milhão). Investidores externos aportaram 450 milhões de yuan por 11,1006% de participação, enquanto a gestão principal investiu 100 milhões de yuan por 2,4668% de participação. O financiamento avalia a Aijie Keixin em aproximadamente 4,054 bilhões de yuan (US$ 405,4 milhões) após o investimento.
Novos investidores incluem Changxin Xinjuhe, uma subsidiária integral do Changxin Technology Group, e Caixin Technology. O financiamento tem como objetivo fortalecer as reservas de capital, acelerar o desenvolvimento do negócio de chips de IA e preparar-se para um possível listing independente da subsidiária.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
Sonhos do Claude, da Anthropic: agente se organiza para recuperar memórias entre tarefas, eliminando duplicidades e contradições
A Anthropic anunciou o Dreams no evento Code with Claude, permitindo que os Claude Managed Agents organizem automaticamente memórias entre várias conversas, eliminem duplicidades e contradições, atualizem itens desatualizados e gerem um banco de memórias pós-processado e auditável; o limite de entrada é de 100 sessions e 4.096 caracteres, com execução assíncrona, concluída em minutos a dezenas de minutos, e suporte à observação via streaming. A prévia da pesquisa precisa ser solicitada; por enquanto, apenas o claude-opus-4-7 e o claude-sonnet-4-6 são suportados, e o lançamento oficial ainda não tem data.
ChainNewsAbmedia2h atrás
A Anthropic se junta à SpaceX em poder de computação: conquista Colossus 1 inteira, com 220 mil GPUs, e o Claude remove limites
A Anthropic anunciou uma parceria de capacidade computacional com a SpaceX para o data center Colossus 1, com a ativação de mais de 220 mil GPUs Nvidia e capacidade de 300MW ou mais. A previsão é que tudo esteja implantado em até um mês para uso da Anthropic, melhorando o desempenho e a experiência do Claude e do Code. Em paralelo, foram relaxados os limites de uso a cada 5 horas para Pro/Max/Team/Enterprise, com a remoção das cotas de pico, e aumento da taxa da API Opus. A expansão também ocorre simultaneamente na infraestrutura na Ásia e na Europa, e no futuro há outras intenções, como “computação de IA em órbita”, mas ainda não há contrato.
ChainNewsAbmedia2h atrás
Engenheiro da Coinbase: agentes de IA podem interromper o modelo de publicidade na web
Erik Reppel, engenheiro da Coinbase, disse que agentes de inteligência artificial poderiam minar fundamentalmente o modelo de negócios da internet, que depende de publicidade. De acordo com Reppel, a economia da web depende fortemente da receita publicitária gerada a partir de usuários humanos, mas agentes de IA contornam esse sistema
CryptoFrontier3h atrás
A Anthropic dobra os limites de taxa do Claude Code após garantir capacidade de 300 MW em um acordo com a SpaceX
De acordo com a Odaily, a Anthropic assinou um acordo com a SpaceX para acessar toda a capacidade de computação do data center Colossus 1, garantindo mais de 300 megawatts de nova capacidade e mais de 220.000 GPUs NVIDIA no prazo de um mês. A partir de agora, os limites de taxa de cinco horas do Claude Code para o Pro,
GateNews3h atrás
A OpenAI divulga o protocolo de rede do supercomputador MRC! Em parceria com a Nvidia, AMD e a Microsoft para criar a infraestrutura do Stargate
A OpenAI publicou o protocolo MRC para a rede de supercomputação de IA, em parceria com AMD, Microsoft, NVIDIA e outros, e com código aberto na OCP. O MRC divide os dados para trafegar por vários caminhos, desvia de obstáculos em nível de microssegundos, reduz a congestão e mantém a sincronização de GPUs, resolvendo o gargalo de transmissão em grandes clusters de treinamento. Instalações como Stargate, no Texas (Abilene), já implantaram interfaces de 800 Gb/s e colocaram o sistema em uso em treinos reais.
ChainNewsAbmedia3h atrás