英伟达最近在CES上搞了个大动作,发布了桌面级AI超算产品——DGX Spark和DGX Station。这可是基于全新的Grace Blackwell架构打造的,把以前只存在于云端的超级算力给搬回了桌面。这个升级不仅仅是换了个壳子,而是真正把AI开发给本地化了。 过去训练那些动不动就几十亿参数的模型,大家都得靠规模庞大的云端数据中心集群来跑,虽然算力强,但是成本高得吓人,数据传输也慢,安全隐私方面也有顾虑,灵活性也差。英伟达这次就是要解决这些问题,把超级计算的能力装进了研发人员的桌面电脑里。 先说这个DGX Spark,它是个入门级旗舰方案,专门给千亿级别的模型用的。他们引入了一种叫NVFP4的数据格式,在保证模型智能水平不怎么变的情况下,压缩比能达到70%,运算和存储效率都提升了不少。实测下来,它跑视频生成模型比顶级笔记本快了八倍多,和开源社区合作优化后,各种前沿模型的平均性能提升了35%,大语言模型加载速度也快了很多。 再来看那个高端货DGX Station,它简直就是个性能怪兽。它搭载了GB300 Grace Blackwell Ultra超级芯片和高达775 GB的FP4精度一致性内存,这意味着它能在单机本地直接跑万亿参数的巨型模型!大家都知道,处理这么大的模型得靠高性能的一致性内存架构,它通过先进的互连技术把CPU和GPU的数据同步起来了。而且它用了FP4这种4位浮点数精度格式,在维持精度的同时把显存占用降到了FP16的四分之一。 这次发布不光是硬件的事儿,英伟达还在软件生态上下功夫。DGX Spark已经支持NVIDIA AI Enterprise企业级软件栈了,还针对机器人、基因、金融这些领域出了详细的开发指南。官方也列举了一堆支持的大模型名单。开发者都说这设备彻底改变了AI开发的格局,让大家能用更低的成本在本地环境里直接优化针对最新硬件特性的模型。 总之,这次发布是给本地化AI研发注入了一股强劲的动力。以后大家不用非得把模型放到云上去跑了,可能真的能看到“云边协同”甚至“桌面超算”的发展趋势。