Gartner在2026年3月25日发布的一份报告里给了一个很有力的预测:到了2030年,给那些拥有1万亿参数的大型语言模型做推理的成本,预计能比2025年减少超过90%。这就意味着,AI的推理成本未来会大幅度下降,对整个行业来说都是个重大利好。 这个消息让人很振奋,毕竟生成式AI在最近几年发展得很快,不过高昂的算力成本一直是个大问题。每次运算都得花很多资源,所以很多人担心这个高成本的问题会一直存在。不过现在看来,这个局面快要扭转了。 根据预测,2030年的大模型在成本效益方面能提升到2022年同规模模型的100倍以上。这种变化背后有很多技术突破在起作用。 首先是半导体技术和基础设施的不断进步。随着先进制程工艺在全球和我国的突破,单颗芯片的算力密度提高了不少。还有液冷技术和高带宽存储(HBM)的应用也让数据中心能耗更低了。 然后是模型设计层面的创新也很关键。稀疏激活技术(比如MoE架构)和低比特量化(比如从FP16向INT4甚至1-bit发展)已经成为了行业标准。这些技术既能保持模型性能又能大幅减少所需的计算资源。 更关键的是专用推理芯片快速发展和芯片利用率提升了。过去通用GPU(GPGPU)承担了很多计算任务,但它们并不专门为推理设计。未来几年,针对生成式AI优化的ASIC和NPU芯片会广泛部署。同时通过优化算力调度算法,芯片空转时间被压缩,硬件性能得到充分释放。 边缘计算也起到了很大作用。随着边缘设备越来越多应用,云端压力减轻了很多。未来很多场景推理任务都会迁移到终端设备上去处理,云端主要负责管理和复杂运算。 这种成本下降趋势是真的很明显。我们拿2022年初作为基准值100来看的话,到2025年已经降到10左右了。而到2030年的时候还会进一步下降到1以下。 这个变化对整个产业链影响深远。现在很多好的AI应用因为成本太高无法落地。但成本大幅降低后,智能体(Agent)生态、自动化工作流程、个性化助手这些应用就不再受限制了。 对硬件市场也会产生影响。国内领先的芯片设计公司和台湾地区先进制程代工企业都会更加注重“高能效推理”方向的研发投入。 最后看看历史趋势吧:每一项重大技术的广泛应用都伴随着使用成本显著降低。从大型计算机到个人电脑再到5G服务都是这样一个过程。 所以Gartner发布的这个预测其实是非常有道理的:未来几年内大模型推理成本会出现断崖式下降!这是由硅基硬件物理特性、深度学习架构演进以及全球工程师智慧积累推动的必然趋势!当拥有1万亿参数的智能系统变得和水电一样廉价且易获取时,“万物智能”时代才算真正到来!