Gate 广场创作者新春激励正式开启,发帖解锁 $60,000 豪华奖池
如何参与:
报名活动表单:https://www.gate.com/questionnaire/7315
使用广场任意发帖小工具,搭配文字发布内容即可
丰厚奖励一览:
发帖即可可瓜分 $25,000 奖池
10 位幸运用户:获得 1 GT + Gate 鸭舌帽
Top 发帖奖励:发帖与互动越多,排名越高,赢取 Gate 新年周边、Gate 双肩包等好礼
新手专属福利:首帖即得 $50 奖励,继续发帖还能瓜分 $10,000 新手奖池
活动时间:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49112
在CES大会期间,英伟达全新推出的Rubin架构成了最近市场讨论的焦点,什么MOE架构之外另一重大突破,什么为Agentic AI时代量身设计等等,我深入看了下,的确感受到老黄“自我革命”那味了:
1)过去英伟达依附的是GPU硬件优势,踩上了各大AI巨头都在疯狂采购算力训练大模型的红利期。那时候逻辑很简单,谁的显卡多谁就能训练出最好的模型。
但现在AI战争已经从“算力”战场转移到“推理”,尤其是Agentic时代到来后,AI需要处理高频、多步、超长上下文的推理。
这个时候,模型参数动辄万亿,数据吞吐量极大,GPU 算得再快,如果内存传数据不够快,GPU 就得空转,这就是“存力墙”,换句话说,显卡多已经解决不了问题了,还需要高显存和带宽来支撑。Rubin要解决的就是这个问题。
2)所以 Rubin首发的HBM4就好撑第四代高带宽内存,可以让带宽到达22TB/s。但更关键的是它配合NVLink 6技术(机架内带宽260TB/s),把72张卡在逻辑上变成了“一颗巨型芯片”。
这意味着什么?以前你买显卡,买的是一个个独立组件,数据在卡与卡之间传输就像快递要经过好几个中转站。现在Rubin通过极高密度的互连,让数据在不同GPU之间流转时几乎感觉不到物理距离,72个工人不再各干各的,而是共享一个大脑。
我想这才是Rubin真正的杀招:不是单纯堆硬件参数,而是让整个系统数据流转的重构。
3)如果说MOE( 混合专家模型架构 )是英伟达被DeepSeek等后起之秀堆英伟达“暴力堆卡”商业模式的一次降维打击,那Rubin怎么看都是老黄的一次战略反击,不在跟你们比谁更省卡,而是直接重构AI的使用成本。当然,出此奇招也意味着英伟达彻底要和暴力堆卡的旧模式说再见了。
老黄算的是另一笔账,Agentic时代要真正落地到千行百业,就必须跨过Token成本这道坎,这是英伟达守不住的大势所趋。
在老黄看来,与其等着被谷歌、Meta等大厂自研芯片蚕食市场,又或者被DeepSeek等用模式颠覆供给侧市场,还不如主动做破局的那个人。
4)问题来了,自我革命后的英伟达要如何自处?路径也很清晰,从"卖显卡"变成"卖系统",从服务少数大厂变成让AI真正普及。
以前你买H100,英伟达赚的永远知识那一份显卡的钱,以后的Rubin会告诉你:你得买整套NVL72机架——72张GPU、NVLink Switch、全液冷系统、机柜,甚至包括配套的软件栈,全部打包卖给你。
老黄的算盘也很清楚,看起来打包后的硬件成本更贵了,但附加了极致的推理效率,把采购方AI使用的单元成本给拉下来了,也自然不会丢失市场份额。
但但但,这套玩法对中小玩家的门槛也更高了。只有大厂和云服务商才能玩得起,会进一步加剧算力垄断。在当前竞争形势下堪称一次豪赌,因为一旦HBM4量产存在问题,就会被AMD、谷歌TPU等抓住窗口期推出的替代方案给替代,那英伟达卖系统的美梦可能没那么容易实现了。