马斯克把英伟达芯片往死里买,这显然是要彻底把现在的算力瓶颈给打破了

2026年3月,马斯克终于放出了狠话。他公开表示,不管是SpaceX、AI还是特斯拉,未来都会继续把英伟达的芯片往死里买,这显然是要彻底把现在的算力瓶颈给打破了。 虽然现在AI芯片市场特别抢手,太空领域也在拼命抢地盘,不过马斯克这波操作,那是把英伟达在高端算力市场的绝对地位给坐实了。说到底,他旗下的这些公司要是想搞技术升级,那肯定缺不了英伟达这块硬件基石。 马斯克这人还挺实诚,直接把对英伟达CEO黄仁勋的崇拜之情给说了出来,也承认对方现在的市值是真的配得上。这可不是客套话,完全是因为他们对算力的依赖实在是太深了。不管是特斯拉的自动驾驶系统还得继续迭代算法,还是xAI大模型得不停地训练,甚至是SpaceX要在太空中建一个“数据中心”,这些全都得靠英伟达的芯片来撑着。 咱们先说说特斯拉这边的算盘。他们现在手上有3.5万块H100 GPU芯片,到了2025年底还得把这个数字翻到8.5万块。为了砸钱买算力,他们已经打算花掉数十亿美元了。 再看xAI那边。他们新推出的Grok 3大模型就是在Colossus超级计算机上跑出来的,这个大家伙是由10万块H100 GPU搭建的。等到以后算力再扩到20万块的时候,这个模型在数学和科学逻辑方面的能力肯定能再往上提一提。 把Grok 3和特斯拉的自动驾驶系统一结合,那对算力的要求自然就更高了。马斯克把这个模型吹成了“地球上最聪明的AI”,它在路况分析和碰撞预判上的本事特别大,能让Autopilot的预警准确率提高15%,误报率减少40%。要是没有英伟达GPU那海量的并行计算能力兜底,这技术根本落不了地。 SpaceX的玩法就更硬核了。他们在美国联邦通信委员会那儿公示过一份文件,说要往天上放100万颗带有AI计算能力的卫星。每颗卫星上都得装1000颗B200 GPU芯片,单颗卫星的算力能到80PFLOPS。等这100万颗卫星连成一片后,总共有80EFLOPS的算力爆出来。 这其实是为了把地面上那套耗电又费钱的设备给换掉。地面的数据中心光是散热就得消耗40%的电能,而且还停不下来。可到了太空中就不一样了,那儿真空低温散热不要钱,太阳能还能提供24小时不间断的能量供应。 英伟达芯片这时候正好帮了大忙,它的高算力和高稳定性让它成了SpaceX卫星的首选。有了它才能支持星链网络的激光通信和实时处理数据。 说到英伟达自己的技术升级也特别猛。就在2026年的GTC大会上,他们推出了7款新芯片。特别是那款Rubin GPU,推理速度是之前Blackwell的5倍,训练速度是3.5倍。配上NVLink 6交换机之后,GPU之间的带宽能达到3.6 TB/s,这刚好能接住马斯克那边庞大的需求。 Groq 3 LPU这个推理协处理器更是补齐了短板。它跟Rubin GPU一起组成了“Prefill-Decode”架构,能让万亿参数模型的每兆瓦吞吐量提升35倍。等今年第三季度正式出货后,估计又是马斯克要抢购的重点了。 值得一提的是,特斯拉虽然已经在搞Terafab晶圆厂想自己造芯片了,但大规模买英伟达芯片的事还是没变过。这就好比是自研芯片和成熟商用芯片互补一样——自研的是为了特定场景优化性能;而英伟达的芯片因为生态好、性能稳、规模大,能帮公司撑过短期的爆发和长期的迭代。 数据显示,黄仁勋已经预测2027年Blackwell和Rubin架构的芯片营收会有1万亿美元。马斯克手下这些公司持续这么买东西,肯定会把这目标推到翻倍的地步。反过来讲,这也能推动太空算力和自动驾驶AI这些领域的技术边界往前再走一步。 从特斯拉的自动驾驶系统到xAI的大模型训练,再到SpaceX的太空数据中心搭建,英伟达的芯片早就深深嵌入了马斯克的商业版图里。这不是单方面的依赖关系,而是一种技术互补的共生状态。马斯克要靠芯片推动技术升级,而英伟达也要靠客户需求来倒逼技术进步。