在CES大会期间,英伟达全新推出的Rubin架构成了最近市场讨论的焦点,什么MOE架构之外另一重大突破,什么为Agentic AI时代量身设计等等,我深入看了下,的确感受到老黄“自我革命”那味了:



1)过去英伟达依附的是GPU硬件优势,踩上了各大AI巨头都在疯狂采购算力训练大模型的红利期。那时候逻辑很简单,谁的显卡多谁就能训练出最好的模型。

但现在AI战争已经从“算力”战场转移到“推理”,尤其是Agentic时代到来后,AI需要处理高频、多步、超长上下文的推理。

这个时候,模型参数动辄万亿,数据吞吐量极大,GPU 算得再快,如果内存传数据不够快,GPU 就得空转,这就是“存力墙”,换句话说,显卡多已经解决不了问题了,还需要高显存和带宽来支撑。Rubin要解决的就是这个问题。

2)所以 Rubin首发的HBM4就好撑第四代高带宽内存,可以让带宽到达22TB/s。但更关键的是它配合NVLink 6技术(机架内带宽260TB/s),把72张卡在逻辑上变成了“一颗巨型芯片”。

这意味着什么?以前你买显卡,买的是一个个独立组件,数据在卡与卡之间传输就像快递要经过好几个中转站。现在Rubin通过极高密度的互连,让数据在不同GPU之间流转时几乎感觉不到物理距离,72个工人不再各干各的,而是共享一个大脑。

我想这才是Rubin真正的杀招:不是单纯堆硬件参数,而是让整个系统数据流转的重构。

3)如果说MOE( 混合专家模型架构 )是英伟达被DeepSeek等后起之秀堆英伟达“暴力堆卡”商业模式的一次降维打击,那Rubin怎么看都是老黄的一次战略反击,不在跟你们比谁更省卡,而是直接重构AI的使用成本。当然,出此奇招也意味着英伟达彻底要和暴力堆卡的旧模式说再见了。

老黄算的是另一笔账,Agentic时代要真正落地到千行百业,就必须跨过Token成本这道坎,这是英伟达守不住的大势所趋。

在老黄看来,与其等着被谷歌、Meta等大厂自研芯片蚕食市场,又或者被DeepSeek等用模式颠覆供给侧市场,还不如主动做破局的那个人。

4)问题来了,自我革命后的英伟达要如何自处?路径也很清晰,从"卖显卡"变成"卖系统",从服务少数大厂变成让AI真正普及。

以前你买H100,英伟达赚的永远知识那一份显卡的钱,以后的Rubin会告诉你:你得买整套NVL72机架——72张GPU、NVLink Switch、全液冷系统、机柜,甚至包括配套的软件栈,全部打包卖给你。

老黄的算盘也很清楚,看起来打包后的硬件成本更贵了,但附加了极致的推理效率,把采购方AI使用的单元成本给拉下来了,也自然不会丢失市场份额。

但但但,这套玩法对中小玩家的门槛也更高了。只有大厂和云服务商才能玩得起,会进一步加剧算力垄断。在当前竞争形势下堪称一次豪赌,因为一旦HBM4量产存在问题,就会被AMD、谷歌TPU等抓住窗口期推出的替代方案给替代,那英伟达卖系统的美梦可能没那么容易实现了。
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)