英伟达发布Vera Rubin平台加码“系统级供给”,瞄准以整座算力工厂重塑数据中心

问题:算力需求爆发与能耗约束并存,数据中心“扩得起、跑不动”矛盾凸显;随着大模型训练与推理规模持续扩大,算力基础设施正从“部署几台服务器”演进为“建设成体系的智能计算中心”。但多重现实约束也在加剧:电力供应、散热能力、互连带宽以及运维复杂度成为新的瓶颈。仅靠提升单颗加速芯片性能,难以同步疏通系统级堵点,尤其在推理生成阶段,低时延与高吞吐的要求持续走高。 原因:系统工程短板成为成本与效率的主要来源。业内人士指出,在数据中心总拥有成本中,供电散热、网络互连、调度软件效率以及资源碎片化带来的隐性损耗占比正在上升。传统架构下,CPU、加速器、网络与存储往往来自不同厂商,难以围绕系统目标协同优化,导致“算力很强、利用率不高”的情况仍然普遍存在。,铜缆互连在更大规模集群中逐步逼近物理与工程极限,继续抬高跨节点通信成本与扩展复杂度。 影响:从“卖芯片”转向“卖系统”,行业竞争进入平台化、工程化阶段。英伟达此次发布的Vera Rubin平台,不再以单颗芯片作为核心叙事,而是以“芯片—机架—网络—软件”一体化方案对外输出能力。公开信息显示,该平台包含多颗新芯片与多款机架级系统,并通过NVLink互连形成更大规模的高速协同域:在72路互连配置下,峰值算力达3.6 Exaflops,单卡配备288GB HBM4显存,GPU间互连带宽最高可达260TB/s。散热上,平台采用全液冷等工程化设计,以适配高密度部署需求,缓解噪声与能耗压力。 更受关注的是其处理器与推理加速思路的变化:一方面推出名为Vera的CPU,采用低功耗内存方案以提升数据搬运与调度效率,强调用更优能效承担编排任务;另一方面引入面向语言生成的专用处理单元LPU(如Groq 3 LPX),以更低时延提升推理解码环节的输出效率。英伟达同时发布调度软件Dynamo,试图GPU重计算、CPU调度与LPU输出之间形成更清晰的分工闭环,并宣称“每兆瓦吞吐”较上一代平台实现数量级提升。分析认为,这个组合意在将竞争焦点从单点性能转向系统吞吐、能效与交付效率,并对传统CPU厂商与数据中心集成商带来更直接的压力。 对策:以互连与交付模式创新,推动“从单机房到集群楼宇”的可扩展部署。围绕集群扩展,英伟达推出Kyber机架方案,将单个互连域从72张GPU扩展至144张GPU,并通过新的机架结构减少对铜缆的依赖,强化背板级高速连接能力。公司还预告将于2028年前后推出下一代Feynman架构,提出在同一系统内实现电互连Scale-up与共封装光学CPO的协同:近距离以电信号满足高密度互连需求,远距离以光互连支撑更大范围扩展。业内认为,这将把高性能算力集群的边界从“一个房间”推向“一个楼层乃至一栋楼”,并对数据中心选址、供电规划与网络架构提出更高的工程要求。 前景:全栈化供应或加速行业集中,也将促使客户更重视开放性与可迁移能力。随着头部厂商以整套平台输出“算力工厂”,硬件、互连与软件的耦合度将进一步提高。一上,这有助于降低集成难度、缩短交付周期,并能效约束下提升单位电力产出;另一上,平台化也可能带来更强的生态绑定,使大型云服务商与科研机构在成本、兼容性、供应链安全与长期可持续之间进行更审慎的权衡。预计未来一段时间,围绕液冷普及、光互连落地、推理专用加速以及调度软件能力的竞争将持续升温,数据中心建设也将从“买设备”转向“买产能、买效率、买可运营性”。

在算力需求快速增长与能耗约束并行的背景下,计算基础设施的竞争正从单点突破转向系统创新。英伟达此次平台化升级不仅表明了芯片之外的工程能力投入,也显示出人工智能产业可能的演进路径——只有在硬件、软件与系统交付层面形成更完整的能力闭环,才能在新一轮智能化浪潮中获得持续优势。由此引发的产业重构,或将更影响全球科技竞争格局。