Mensagem do Gate News, 21 de abril — Zibianliang (自变量), uma empresa chinesa de robótica, realizou uma conferência de imprensa a 21 de abril para apresentar o seu próximo modelo base de IA incorporada de nova geração, WALL-B. A empresa anunciou que robôs alimentados por WALL-B vão entrar em lares reais dentro de 35 dias.
Segundo o cofundador e CTO Wang Hao, o WALL-B assenta numa arquitectura World Unified Model (WUM), concebida para eliminar a perda de dados entre módulos separados. Ao contrário dos modelos tradicionais visão-linguagem-ação (VLA), em que os módulos de visão, linguagem e movimento operam de forma independente — causando perda de informação com cada transferência de dados —, o WALL-B integra capacidades de visão, linguagem, ação e previsão física num único modelo unificado, treinado em conjunto desde o zero. Wang sublinhou que os modelos de mundo não são módulos independentes do tipo “plug-in”, mas sim capacidades preditivas para os futuros estados do mundo físico.
O principal insight da empresa centra-se na qualidade dos dados: Wang Hao distinguiu entre “dados de água com açúcar” (clean, dados de laboratório estáveis e previsíveis) e “dados de leite” (messy, dados reais de lares difíceis de controlar e do mundo real). Embora o treino em dados de laboratório produza modelos que carecem de generalização zero-shot, dados reais de lares — embora sejam dispendiosos e demorados de recolher — permitem uma generalização verdadeira. Para esse fim, a Zibianliang já entrou em mais de 100 lares de voluntários para treinar o WALL-B.
O CEO Wang Qian afirmou que os robôs podem executar qualquer tarefa fisicamente viável assim que forem implantados em casas, sem necessidade de ponderações antecipadas sobre limitações. Ele destacou que a vantagem competitiva não provém de algoritmos ou hardware, mas sim do ecossistema completo de engenharia — definição de dados, recolha, processamento e avaliação de treino. No sector da robótica, essas janelas de liderança tecnológica podem estender-se por três anos ou mais. Em particular, a Zibianliang concluiu recentemente a sua ronda de financiamento Série B liderada pelo braço de venture capital da Xiaomi, elevando os investidores divulgados da empresa para quatro grandes empresas de internet chinesas (ByteDance, Meituan, Alibaba e Xiaomi).
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Sonhos com o Claude da Anthropic: os agentes auto-organizam memórias entre tarefas, eliminam duplicados e contradições
A Anthropic, na conferência Code with Claude, anunciou os Dreams, permitindo que os Claude Managed Agents organizem automaticamente memórias entre múltiplas sessões de conversa, eliminem duplicados e contradições, e atualizem entradas desatualizadas, produzindo uma base de memórias finalizável e auditável; o limite de entrada é de 100 sessões e 4.096 caracteres, com execução assíncrona, concluída entre alguns minutos e algumas dezenas de minutos, e com suporte para observação por streaming. A pré-visualização da investigação requer candidatura; por agora, apenas suporta claude-opus-4-7 e claude-sonnet-4-6, com data de lançamento oficial ainda por definir.
ChainNewsAbmedia1h atrás
A Anthropic negocia com a SpaceX a capacidade de computação: garante Colossus 1 com 22 mil GPUs, e o Claude removeu os limites
A Anthropic anunciou uma parceria de capacidade computacional com a SpaceX para o centro de dados Colossus 1, com planos para utilizar mais de 220 mil GPUs Nvidia e mais de 300MW de capacidade. A implementação deverá ficar concluída no prazo de um mês para ser disponibilizada ao uso da Anthropic, melhorando o desempenho e a experiência do Claude e do Code. Em paralelo, foram alargados os limites de utilização a cada 5 horas para Pro/Max/Team/Enterprise, foi removido o limite durante os picos e foi aumentada a taxa da API do Opus. A expansão das infraestruturas na Ásia e na Europa ocorre em simultâneo, e, no futuro, há ainda intenções para “computação de IA em órbita”, entre outras, embora ainda não haja contratos fechados.
ChainNewsAbmedia2h atrás
Engenheiro da Coinbase: os agentes de IA poderiam perturbar o modelo de publicidade na Web
Erik Reppel, engenheiro da Coinbase, afirmou que os agentes de inteligência artificial poderiam minar fundamentalmente o modelo de negócio da internet, dependente da publicidade. Segundo Reppel, a economia da Web depende fortemente das receitas de publicidade geradas a partir de utilizadores humanos, mas os agentes de IA contornam esse sistema
CryptoFrontier2h atrás
A Anthropic duplica os limites de taxa do Claude Code após garantir uma capacidade de 300 MW num acordo com a SpaceX
Segundo a Odaily, a Anthropic assinou um acordo com a SpaceX para aceder à capacidade total de computação do centro de dados Colossus 1, garantindo mais de 300 megawatts de nova capacidade e mais de 220.000 GPUs NVIDIA no prazo de um mês. A partir do momento, os limites de taxa de cinco horas do Claude Code para Pro,
GateNews2h atrás
A OpenAI publica o protocolo de rede do supercomputador MRC! Em parceria com a Nvidia, a AMD e a Microsoft para criar a infraestrutura base do Stargate
A OpenAI anunciou a MRC, uma proposta de protocolo para uma rede de supercomputação de IA, em colaboração com a AMD, a Microsoft, a NVIDIA e outras entidades, e disponibilizou-a em código aberto na OCP. A MRC divide os dados e envia-os por múltiplos caminhos em simultâneo, evita obstáculos a nível de microssegundos, reduz a congestão e mantém a sincronização da GPU, resolvendo os gargalos de transferência em grandes clusters de treino. As bases já implantadas, como o Stargate em Abilene, no Texas, têm interfaces de 800Gb/s e já foram integradas em treinos reais.
ChainNewsAbmedia3h atrás