Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
OpenClaw volta a colocar a Apple no jogo da IA — E agora eles não conseguem construir Macs rápido o suficiente
Resumidamente
O Mac mini da Apple sempre foi o desktop silencioso e esquecível no fundo da Apple Store. Prático, barato pelos padrões da Apple, e amplamente ignorado pela comunidade de IA. Então, aconteceu o OpenClaw. Na quinta-feira, Tim Cook disse aos analistas que o Mac mini e o Mac Studio estão esgotados—e podem permanecer assim por vários meses. “Ambos são plataformas incríveis para IA e ferramentas agentic,” afirmou na chamada de resultados do segundo trimestre de 2026, “e o reconhecimento do cliente em relação a isso está acontecendo mais rápido do que prevíamos.” Tradução: a Apple subestimou o quanto os desenvolvedores desejariam essas máquinas, especialmente em tempos em que a escassez está atrapalhando os mercados.
A receita de Macs foi de 8,4 bilhões de dólares no trimestre, um aumento de 6% em relação ao ano anterior. Não exatamente um estouro—mas as restrições de oferta, não a procura, são o fator limitante. Configurações de Mac mini e Mac Studio com alta RAM não estão apenas atrasadas; algumas foram completamente retiradas da Apple Store. O Mac mini básico de 599 dólares está esgotado nos EUA, sem entregas ou retirada na loja disponíveis. Configurações atualizadas com 64GB de RAM mostram tempos de espera de 16 a 18 semanas. Modelos do Mac Studio com 512GB de memória unificada desapareceram completamente da loja. Scalpers no eBay perceberam rapidamente, listando modelos básicos por quase o dobro do preço de varejo. O catalisador de tudo isso? OpenClaw e o boom de IA Agentic que consome muita memória.
A estrutura de agentes de IA de código aberto—construída por Peter Steinberger e agora apoiada pela OpenAI após uma guerra de lances com a Meta—explodiu para mais de 323.000 estrelas no GitHub e tornou-se a forma mais rápida para indivíduos e pequenas equipes executarem agentes de IA persistentes localmente. E o hardware de referência não oficial para executá-lo tornou-se, quase imediatamente, o Mac mini.
No entanto, não foi resultado de uma campanha de marketing. O que a maioria das pessoas que cobre a escassez de Macs não percebe é que a Apple foi irrelevante para cargas de trabalho sérias de IA durante anos. Antes do milagre dos Agentes de IA se tornarem mainstream, as pessoas reclamavam que rodar LLMs, Stable Diffusion ou qualquer outro software de IA doméstica era extremamente lento e quase inutilizável. Um Mac M2 tinha desempenho comparável a uma GPU de 2019. A recusa da Apple em adotar CUDA ou usar Nvidia, promovendo sua tecnologia MLX, tornou-a tão irrelevante para IA quanto para jogos. A Nvidia dominava porque o CUDA—seu framework proprietário de programação de GPU—era a espinha dorsal do treinamento e inferência de modelos. Todo o stack de IA era construído em torno dele. A Apple não tinha nada comparável. Ninguém queria um Mac para inferência local. Mas o CUDA tem um segredo sujo: limites de VRAM. Até a melhor GPU de consumo da Nvidia, a RTX 5090, atinge um máximo de 32GB de VRAM. Essa é uma barreira rígida. Um modelo maior que 32GB não consegue rodar na sua velocidade máxima nessa placa—ele transborda para a RAM do sistema mais lenta, atravessa o bus PCIe, e o desempenho despenca. Para rodar um modelo sério de 70 bilhões de parâmetros na hardware da Nvidia, é preciso múltiplas GPUs, um rack de servidores, consumo de energia elevado e milhares de dólares. A Arquitetura de Memória Unificada (UMA) da Apple resolve isso de uma forma que o CUDA não consegue. No Apple Silicon, a CPU, GPU e Neural Engine compartilham o mesmo pool físico de RAM. Não há VRAM separada. Não há bus PCIe para atravessar. Um Mac mini com 64GB pode carregar um modelo de 70 bilhões de parâmetros que um RTX 5090 de 1.800 dólares simplesmente se recusa a tocar.
O M4 Ultra—o chip que alimenta configurações de alto nível do Mac Studio—suporta até 192GB de memória unificada. Isso é suficiente para rodar modelos de 100 bilhões de parâmetros localmente em uma única máquina. Sem servidor. Sem conta mensal na nuvem. OpenClaw tornou essa troca de recursos óbvia. Porque executa agentes localmente—conectando-se aos seus arquivos, seus aplicativos, suas mensagens—os usuários precisavam de máquinas capazes de lidar com a carga de raciocínio sem precisar alugar computação na nuvem. Um Mac mini com 32GB de memória unificada roda confortavelmente modelos de 30 bilhões de parâmetros. Um Mac Studio com 128GB lida com modelos que a maioria dos desenvolvedores não conseguiria tocar sem um cluster de GPU empresarial há um ano. Um Mac lento capaz de rodar um modelo de IA poderoso é muito melhor do que uma placa Nvidia potente que nem consegue carregar esse modelo. O resultado: os desenvolvedores começaram a comprar Mac minis como costumavam comprar Raspberry Pis—vários de uma vez, tratados como infraestrutura, não como computadores pessoais. A cadeia de suprimentos da Apple nunca foi projetada para esse padrão. Há também uma escassez mais ampla de memória agravando o problema. A IDC espera que as remessas globais de PCs caiam 11,3% em 2026, parcialmente impulsionadas por uma escassez de chips de memória alimentada pela demanda de servidores de IA. A Apple agora compete pela mesma oferta de RAM que os hyperscalers que constroem data centers. Cook disse que pode levar “vários meses” para equilibrar oferta e procura no Mac mini e no Studio. Espera-se uma atualização com o chip M5 ainda em 2026, o que pode aliviar a pressão—mas os compradores atuais estão presos à espera ou pagando preços de scalper. O Mac mini gerou mais urgência em 2026 do que em qualquer momento na sua história de 20 anos—e tudo o que precisou foi de uma ajuda de um projeto de código aberto com o qual a Apple não tinha absolutamente nada a ver para fazer isso acontecer.