2026年GTC大会上,英伟达拿出了一个重磅产品——Vera Rubin AI平台,专门来给智能体AI的发展加把劲。黄仁勋把它吹成了“代际飞跃”,说这是公司历史上最大规模的AI基建行动,几乎覆盖了从预训练到推理的整个AI生命周期。为了跑快,这个平台在算力上有大动作,用NVLink 6把72块Rubin GPU和36块Vera CPU深度绑在了一起。和老平台Blackwell比起来,它在那种大模型的混合专家训练上,用的GPU数量只需要四分之一,每瓦出的活儿翻了10倍,一个Token的处理成本更是降到了原来的十分之一。为了应付那种大家伙的验证工作,英伟达还专门搞了个256块液冷CPU的机架。靠着散热设计优化,这玩意的效率能跑传统CPU的两倍,处理速度直接干到50%的提升。对于智能体那种要低延迟又得长篇大论的活儿,英伟达还搭配了Groq 3 LPX机架。里面塞进了256个LPU处理器,跟Vera Rubin一起干活时,每兆瓦的吞吐量最高能翻35倍。 数据存储这一块,BlueField-4 STX也有大动作。它用DOCA Memos来搞定大模型生成的海量KV缓存数据。在节省电的同时,推理吞吐量还能最高提高5倍。这就把多轮对话这种复杂场景给整得更快了。BlueField-4和GPU这些硬件在Vera Rubin平台里配合得很好。Groq的LPU让整个系统变得更灵敏。至于CPU那边,Vera专门负责那些模型验证的脏活累活。DOCA框架让存储这一块更高效。黄仁勋说这是英伟达历史上最大规模的AI基础设施建设启动了。新一代NVL72机架用NVLink 6把GPU和CPU深度整合了。这个平台的目标就是把算力效率推上去,好把AI推理的成本大幅压低。