A previsão-base do Goldman Sachs de 7,6 biliões de dólares em despesa de capital em inteligência artificial (IA) acabará por depender de durante quanto tempo o silício específico para IA continua útil. As redes descentralizadas prometem grandes eficiências de custos, mas continuam a lutar contra problemas de latência, e os especialistas defendem que a sua viabilidade a longo prazo dependerá de dar prioridade à verificabilidade em vez do desempenho bruto.
Um relatório recente do Goldman Sachs transfere o debate do facto de existir ou não procura de inteligência artificial (IA) para os fatores do lado da oferta que vão determinar o custo real da expansão. O relatório prevê 7,6 biliões de dólares em despesa de capital em IA como linha de base, mas sublinha que este valor é altamente sensível a “variáveis de oscilação”, incluindo a vida útil do silício de IA.
Esta longevidade é vista como o fator mais crítico, porque a inovação rápida pode tornar obsoletos os chips padrão — que normalmente duram entre 4 e 6 anos — em apenas três anos, fazendo disparar os custos. Em contrapartida, um “modelo em camadas”, no qual chips mais antigos são reutilizados para tarefas mais simples, como a inferência, poderia estabilizar os custos.
A complexidade dos data centers e a elasticidade da procura de computação são outras variáveis que deverão influenciar quanto capital será despendido com infraestruturas de IA nos próximos cinco anos. A escassez de capacidade da rede elétrica, de mão de obra especializada e de equipamento elétrico também é apontada como fator que prolonga o desenvolvimento.
Um relatório separado, entretanto, enquadra esta impressionante despesa em infraestruturas como a pedra angular de uma emergente “economia das máquinas”. Neste paradigma, os agentes de IA passam a ser os principais atores económicos, executando transações de alta frequência e gerindo a alocação de recursos de forma independente. Os autores do relatório argumentam que os sistemas financeiros legados, caracterizados por ciclos de liquidação lentos e por estruturas rígidas de know your customer (KYC), estão fundamentalmente mal preparados para a velocidade do comércio orientado por agentes.
Por conseguinte, posiciona a cripto e os protocolos descentralizados como as “infraestruturas económicas” essenciais e permissionless necessárias para viabilizar esta mudança. No entanto, os céticos continuam cautelosos, questionando se as redes descentralizadas de infraestrutura física (DePINs) conseguem realmente mitigar os requisitos de capital crescentes da IA.
Vadim Taszycki, diretor de crescimento na StealthEX, observa que, embora as redes descentralizadas possam oferecer poupanças de custos significativas, enfrentam limitações físicas. Embora um fornecedor descentralizado como a Akash possa arrendar uma GPU H100 por 1,48 dólares por hora, face aos 12,30 dólares na Amazon Web Services, a troca está na velocidade.
“Os grandes fornecedores de cloud conseguem fazer [trabalho rápido] porque as suas GPUs estão lado a lado no mesmo edifício, ligadas por cabos especiais que movem dados em microssegundos”, disse Taszycki. Explicou que as redes descentralizadas, que costuram GPUs em diferentes países através da internet pública, adicionam milissegundos de atraso. Essa latência torna a orquestração descentralizada competitiva para jobs em batch e para fine-tuning, mas inadequada para servir chatbots de alta escala em tempo real, em que a experiência do utilizador depende de respostas quase instantâneas.
Leo Fan, fundador da Cysic, ecoou estes pontos, insistindo que a inferência descentralizada é inadequada para cargas de trabalho de baixa latência. Fan argumentou, porém, que a latência é um indicador errado para comparar plataformas descentralizadas e hyperscalers como a AWS.
“O problema difícil não é a computação distribuída, mas a descoberta, o escalonamento e a atestação. A cunha não é o preço por token; é a verificabilidade”, disse Fan. Salientou que os ambientes de execução confiáveis (TEEs) e as atestações de prova de conhecimento zero (ZK) permitem que redes descentralizadas concorram em setores onde a confiança e a verificação importam mais do que a “latência de cauda”.
Para além da computação, o foco está a mudar para como estes projetos intensivos em capital são financiados. Embora o crédito privado tradicional tenha capital em abundância, muitas vezes ignora negócios menores ou não convencionais. O crédito onchain oferece vantagens distintas, como permitir que investidores de retalho participem na receita de data centers que antes era restrita a limited partners institucionais. Além disso, plataformas como Maple e Centrifuge podem sindicatar empréstimos na faixa dos 5 milhões a 50 milhões de dólares — um escalão frequentemente ignorado por empresas como a Apollo devido aos custos elevados de underwriting face às comissões.
Por fim, o crédito onchain permite modelos inovadores de “pagamento por inferência”, nos quais a receita varia com o uso de GPU. Estes modelos encaixam de forma mais natural em estruturas tokenizadas de partilha de receitas do que em leases tradicionais rígidos de 20 anos.
Apesar deste potencial, os especialistas identificam quatro “portões” que continuam fechados à adoção institucional: a exequibilidade legal em tribunais de falência, a inexistência de infraestrutura de oracle à prova de adulteração para fazer cumprir covenants, a incerteza regulatória para tranches de biliões de dólares e produtos fiscais e contabilísticos não normalizados.
O consenso aponta para um horizonte realista de 12 a 24 meses para que acordos sindicados de dimensão média ganhem tração onchain, com a dívida mezzanine maioritariamente onchain provavelmente a surgir daqui a três a cinco anos. As primeiras quebras deverão vir de operadores da Tier 2, em vez de líderes da indústria como a Coreweave.
Related News
As previsões de receitas da Cisco superam as expectativas, a transformação para o setor da IA tem sucesso e as ações da CSCO atingem máximas históricas
Comunidades de DAO Experimentam Soluções de Governação Descentralizada
CEO da Alibaba: Quase Nenhum Cartão GPU Fica Ocioso nos Servidores
Onde será a próxima vaga de infraestruturas de IA? O relatório da Citrini revela que o SiC, o GaN e as infraestruturas energéticas estão a tornar-se novas áreas de investimento