Analista da Research da VacEck explica: por que a valorização é cara, ainda estou otimista com os desafiante da Nvidia no IPO da Cerebras

ChainNewsAbmedia
NODE-0,08%

A nova empresa de chips dos EUA Cerebras Systems deverá avançar com um IPO sob o código de ações CBRS. O responsável de investigação de activos digitais da VanEck, Matthew Sigel, afirmou num post recente que a Cerebras poderá ser o IPO de semicondutores mais seguido pelo mercado desde que a Arm abriu capital em 2023. Segundo Sigel, a Cerebras pretende vender 28 milhões de acções a 115 a 125 dólares por acção, angariando cerca de 3,5 mil milhões de dólares; enquanto o Onchain Economy ETF (NODE) da VanEck já apresentou, via intermediários/underwriters, um pedido de subscrição total.

Importa notar que a VanEck não é o underwriter do IPO da Cerebras. O ponto-chave do artigo de Sigel é que a VanEck, enquanto investidor, procura obter a sua quota de alocação no IPO, e não desempenhar um papel de underwriting. No fim do artigo, ele também revela que a VanEck já submeteu pedidos de alocação de acções para o IPO da Cerebras, e que pelo menos um profissional de investimentos da VanEck já detinha acções da Cerebras no mercado privado; por isso, a VanEck tem um interesse financeiro directo na fixação do preço e no resultado de emissão deste IPO.

Porque é que a Cerebras é vista com bons olhos? A rápida vertente de raciocínio da OpenAI passou das mãos da NVIDIA

Matthew Sigel considera que a Cerebras e a Arm têm modelos de negócio completamente diferentes. O valor da Arm vem de licenças da arquitectura e de royalties, crescendo de forma composta à medida que a sua arquitectura se infiltra em mais dispositivos; já a Cerebras é uma empresa altamente focada em produtos, cuja oferta principal são chips ao nível de wafer, concebidos para resolver problemas de velocidade em inferência de IA.

Sigel aponta que o mercado de infra-estruturas de IA se está a dividir em duas linhas: de um lado, cargas de trabalho de treino e inferência centradas em clusters de GPU, orientadas para processamento em lote e para throughput; do outro, um mercado de inferência altamente sensível a latência, como AI agents, assistentes de código, aplicações em tempo real e produtos altamente interactivos. Neste último caso, a velocidade de inferência não é apenas uma questão de custo: afecta directamente a experiência do utilizador, a capacidade de definir preços de produto e as taxas de retenção.

Ele cita a declaração do CEO da Cerebras, Andrew Feldman: “É muito claro que a NVIDIA não quer perder a vertente de rápida inferência da OpenAI, e nós afastámo-la das mãos deles.”

Sigel entende que esta frase evidencia a importância estratégica da Cerebras: se as necessidades de baixa latência da OpenAI começarem a ser suportadas pela Cerebras, a CBRS pode deixar de ser apenas mais uma empresa de infra-estruturas de IA e, em vez disso, tornar-se um “termómetro” de uma “nova categoria de hardware”.

A Cerebras coloca modelos na SRAM dentro do chip, contornando o gargalo de largura de banda da memória da GPU

Sigel atribui as vantagens tecnológicas da Cerebras a “chips ao nível de wafer” e a “SRAM on-chip”. Ao contrário dos clusters tradicionais de GPU que têm de mover dados entre múltiplos chips e memória externa, o desenho da Cerebras permite que os modelos permaneçam em larga escala na SRAM dentro do próprio chip, reduzindo o gargalo da largura de banda da memória e as oscilações de latência.

Segundo Sigel, isso permite que a Cerebras consiga inferência até 15 vezes mais rápida do que soluções baseadas em GPU, bem como uma performance de latência mais estável e previsível. Para AI agents, assistentes de coding em tempo real, interacção por voz, serviços de pesquisa e inferência com baixa latência, este tipo de “latência determinística” tende a ganhar cada vez mais valor.

Ele também refere que a administração da Cerebras já aumentou os preços devido a excesso de procura, o que indica que o principal problema da empresa não é falta de procura, mas sim restrições de capacidade/fornecimento.

A OpenAI é a principal “base”: um contrato de 20 mil milhões de dólares sustenta o patamar de receitas

O ponto de investimento mais importante do artigo de Sigel é o contrato longo firmado entre a Cerebras e a OpenAI.

De acordo com a sua explicação, o acordo entre a Cerebras e a OpenAI é um take-or-pay de 20 mil milhões de dólares, que abrange capacidade contratada de 750MW até 2028; a OpenAI tem ainda uma opção para expandir a capacidade para cerca de 2GW, com um montante adicional de contrato de cerca de 34 mil milhões de dólares, a um preço de cerca de 27 milhões de dólares por MW.

Sigel diz que este contrato é suportado por uma estrutura de empréstimo de capital de exploração de mil milhões de dólares e por warrants, formando a base das futuras receitas da Cerebras. O RPO da Cerebras, ou seja, as obrigações de desempenho restantes, encontra-se actualmente em cerca de 24,6 mil milhões de dólares. A empresa espera reconhecer, no total, cerca de 15% entre 2026 e 2027, o que equivale a cerca de 3,7 mil milhões de dólares; e entre 2028 e 2029, reconhecer mais 43%, o que equivale a cerca de 10,6 mil milhões de dólares.

Codex Spark como indicador proxy do uso da OpenAI

Sigel também menciona que os investidores externos não conseguem observar directamente a taxa de utilização da capacidade da Cerebras; por isso, ele vê o Codex Spark da OpenAI como o indicador proxy público mais próximo.

Segundo ele, o Codex Spark é uma versão de baixa latência do coding agent Codex da OpenAI, executado sobre a infra-estrutura da Cerebras. O produto tinha cerca de 600 mil utilizadores semanais activos em Janeiro de 2026; até hoje ultrapassou os 4 milhões, tendo crescido cerca de 7 vezes em quatro meses, e continua disponível apenas para utilizadores do ChatGPT Pro.

Sigel considera que, se o Spark for alargado a todos os utilizadores pagantes do ChatGPT, a base de utilizadores potencial poderá expandir-se significativamente num curto espaço de tempo. Isto não só aumentará a utilização do contrato de 750MW, como reforçará a probabilidade de a OpenAI exercer a opção adicional de expansão de 1,25GW.

AWS, Meta, Oracle e IBM também constam na lista de clientes da Cerebras

Além da OpenAI, Sigel também aponta a AWS, a Meta, a Oracle e a IBM como parceiros importantes da Cerebras. A relação com a AWS é especialmente crítica, porque a Cerebras pode entrar no mercado de clientes empresariais via Amazon Bedrock, sem depender totalmente de equipas próprias de vendas/directo.

Ele também refere que a AWS tem um investimento de capital próprio de 270 milhões de dólares na Cerebras, enquanto a Meta poderá usar a Cerebras para inferência com modelos Llama. Isto sugere que, se a Cerebras conseguir provar que os cenários da OpenAI podem escalar, ainda há margem para evoluir de uma base de um único grande cliente para necessidades mais amplas de empresas e plataformas cloud.

ZK proof: a Cerebras pode tornar-se um hardware computacional verificável no blockchain

Vale a pena notar que, sendo Sigel responsável de investigação na VanEck, ele interpreta a Cerebras também pelo ângulo da economia on-chain.

Ele considera que a arquitectura de chips da Cerebras tem muito SRAM on-chip, largura de banda de memória extremamente elevada e capacidade de computação altamente paralelizada; por isso, não é apenas adequada para inferência de IA, podendo também tornar-se um acelerador de hardware para geração de zero-knowledge proof (ZK proof).

As ZK proofs são uma tecnologia importante para escalabilidade no blockchain e computação verificável; são intensivas em cálculo e sensíveis à latência. Sigel acredita que, à medida que a verifiable compute se encaminha para a instantaneidade, a Cerebras poderá encaixar naturalmente nestas cargas de trabalho — razão por que a VanEck Onchain Economy ETF (NODE) quer alocar à CBRS.

Sigel também admite que a margem bruta da Cerebras é actualmente inferior a 40%, o que parece abaixo do intervalo comum de 55% a 70% em semicondutores e pares de cloud. Ainda assim, ele considera que esta comparação não é totalmente justa.

A razão é que a Cerebras não vende apenas chips; pode também fornecer deployments cloud, instalação de sistemas no local do cliente e, até, ajudar na construção de capacidade de centros de dados dedicada consoante as necessidades do cliente. Isto permite à Cerebras capturar valor económico tanto na camada de chips como na camada de hosting, mas também faz com que a margem bruta reportada nas demonstrações seja inferior à de empresas puramente de chips.

A premissa base de Sigel é que, com o aumento de escala, a melhoria dos custos dos chips ao nível de wafer e o aumento do peso de software e serviços cloud, a margem bruta da Cerebras tem potencial para atingir cerca de 50% em 2030. Num cenário optimista, com cerca de 60% da margem bruta esperada convertível a partir do backlog de 24,6 mil milhões de dólares, a margem bruta da Cerebras pode até aproximar-se de 60%.

Avaliação cara, mas com três quadros de alta: múltiplos de receitas, TAM de inferência e valor por MW no mercado

Sigel não foge ao tema de uma avaliação elevada no IPO da Cerebras. Considerando 125 dólares por acção, a CBRS equivale a 52 vezes a receita de 2025 — e a avaliação “retroactiva” não é barata.

Mas ele considera que, para uma empresa cuja receita futura possa crescer de forma significativa até 2027 graças ao backlog de contratos, os múltiplos retroactivos têm pouco significado. Com base na receita estimada para 2026, a CBRS equivale a cerca de 16,7 vezes a forward revenue, aproximando-se do valor mediano de empresas homólogas de semicondutores.

Sigel apresenta três quadros de avaliação

Primeiro, avaliação por múltiplo de receitas de 2028. O cenário-base assume receitas da Cerebras em 2028 de 5,5 mil milhões de dólares; ao aplicar um múltiplo de 10 vezes receitas, resulta num valor por acção de cerca de 258 dólares, acima do preço intermédio do IPO em cerca de 107%. No cenário optimista, assume receitas de 6,5 mil milhões de dólares e um múltiplo de 12,5 vezes receitas, o que corresponde a cerca de 381 dólares por acção.

Segundo, cálculo com base no TAM do mercado de inferência. Sigel cita dados da Bloomberg Intelligence segundo os quais o tamanho do mercado de inferência em 2028 ronda os 201 mil milhões de dólares e em 2029 cerca de 292 mil milhões de dólares. Se a receita de 2028 da Cerebras atingir 5,5 mil milhões de dólares, corresponderá a apenas cerca de 2,7% do mercado de inferência; se atingir 6,5 mil milhões de dólares, cerca de 3,2%. Ele considera que estas não são premissas de quota de mercado excessivamente agressivas.

Terceiro, estimativa por valor de capacidade por MW. Ele usa como referência a avaliação de mercado de cerca de 20 milhões de dólares por MW para a CoreWeave e aplica a capacidade contratada de 750MW do acordo entre a Cerebras e a OpenAI; só a base do contrato da OpenAI já consegue suportar um valor empresarial de cerca de 15 mil milhões de dólares. Se a OpenAI exercer a opção e expandir para 2GW, isso traduz-se em cerca de 40 mil milhões de dólares de valor empresarial.

Sigel salienta que a CoreWeave é, na essência, um operador de rentabilização/aluguer de infra-estrutura de computação em GPU; já a Cerebras tem, em simultâneo, IP de chips desenvolvidos internamente, stack de software e economia de capacidade de centros de dados, pelo que, em teoria, não deveria ficar abaixo da avaliação por MW de uma empresa puramente de infra-estrutura.

Principais riscos: concentração de clientes, ramp-up de capacidade, cadeia de fornecimento da TSMC e vale-tecnologia (moat)

Sigel também lista os principais riscos da Cerebras. Primeiro, a concentração de clientes. Em 2025, os dois clientes relacionados com Abu Dhabi, G42 e MBZUAI, contribuíram no total com cerca de 86% das receitas, o que à partida parece altamente concentrado.

Ainda assim, ele entende que o contrato com a OpenAI irá substituir estruturalmente o problema passado de concentração de clientes dos EAU entre 2026 e 2028; e a AWS e outros parceiros também vão proporcionar mais dispersão.

Os riscos verdadeiramente mais relevantes incluem: se a Cerebras consegue completar atempadamente o ramp-up de capacidade, se a cadeia de produção da TSMC para chips ao nível de wafer se mantém estável, e se a próxima geração de GPU ou outras arquitecturas de IA poderão reduzir a diferença de latência, enfraquecendo o moat tecnológico da Cerebras.

Por fim, Sigel refere que a VanEck, enquanto uma das maiores gestoras de ETF de semicondutores nos EUA, SMH, realiza investigação de longo prazo sobre a indústria de semicondutores; e, em simultâneo, a VanEck já teve uma relação anterior com deployments de capacidade através da WhiteFiber (WYFI) com a Cerebras, tendo contacto mais cedo com o cenário real de expansão operacional.

Ele afirma que o Onchain Economy ETF (NODE) da VanEck já solicitou aos intermediários/underwriters a subscrição total no IPO da Cerebras. A razão não é apenas o optimismo em relação ao mercado de inferência de IA; inclui também a possibilidade de a Cerebras se tornar, no futuro, uma camada de hardware importante para ZK proof em blockchains, computação verificável em tempo real e infra-estrutura on-chain.

Este artigo, assinado pelo responsável de investigação da VacEck: porque é que a avaliação é cara, e continuo optimista quanto ao desafio à NVIDIA — o IPO da Cerebras — aparece mais cedo no ABMedia, na secção de notícias em cadeia (cadeia/Blockchain News).

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário