人工智能发展遭遇瓶颈 专家呼吁突破现有技术路径寻求变革

问题:扩展红利减弱,能力瓶颈显现 NeurIPS 2025会议上,关于大模型发展路径的讨论出现明显转变;研究人员普遍认为,过去依赖扩大参数规模、增加训练数据和提升算力的方法正面临“扩展壁垒”。有学者指出,当前模型在语言表达上虽更流畅,但在严谨推理、因果分析和可验证性上仍存在明显短板。尽管双子座3号等新模型性能有所提升,但其技术架构并未突破现有框架。 原因:数据、能耗与能力机制的三重挑战 首先,高质量训练数据的供给逐渐紧张。优质文本、图文和专业语料的稀缺性日益凸显,新增数据对模型能力提升的边际效益下降。其次,算力与能耗成本持续攀升。超大规模训练对芯片、能源和基础设施的依赖加深,投入与回报的性价比降低,对可持续发展提出挑战。最后,核心问题在于能力机制:当前大模型擅长统计模式学习和语言生成,能提供“合理”的答案,却难以像人类一样建立稳定的因果模型,在复杂决策或高风险场景中仍可能出错。这种“表面智能”与“可靠推理”之间的差距成为会议讨论的焦点。 影响:技术路线与产业预期需重新调整 大模型仍将推动效率工具和应用创新,但将其等同于“通用智能”并用于关键决策可能带来风险。在医疗、航空、科研等领域,模型的偶发错误、事实偏差和推理不稳定可能导致严重后果。会议还指出,“通用智能”概念在某些场景中被过度营销,可能推高社会预期并引发“能力泡沫”。随着扩展收益放缓,行业竞争可能从规模转向可靠性、可解释性和系统工程能力,从而重塑研发方向和评价标准。 对策:从“更大”到“更懂”,探索混合路径 与会者提出多种改进方向:一是结合神经网络的模式识别与符号逻辑的结构化推理,提升模型的可验证性和规则约束能力;二是构建“世界模型”,使系统能够模拟环境、表达因果关系并进行反事实推断;三是加强评测体系、对齐机制和安全研究,推动模型从“回答流畅”转向“回答准确、稳定、可追溯”。此外,跨学科合作也被视为关键,需从认知科学、控制理论等领域汲取方法,弥补语言数据的局限性。 前景:竞争聚焦可靠推理与成本控制 会议传递的信号表明,大模型仍处于快速发展阶段,但粗放式扩展已难以为继。未来的突破更可能来自数据治理、架构创新、工具整合和系统工程,而非单纯扩大规模。在可控成本下实现更强的因果推理、可验证决策和稳健安全性的企业,将在下一轮产业化中占据优势。 结语: 科学的诚实有时比技术乐观更重要。NeurIPS 2025的讨论标志着人工智能领域开始理性审视自身局限。承认瓶颈并非停滞,而是为真正的突破厘清方向。未来的人工智能或许不在于更大的模型,而在于更深的理解。

科学的诚实有时比技术乐观更重要。NeurIPS 2025的讨论标志着人工智能领域开始理性审视自身局限。承认瓶颈并非停滞,而是为真正的突破厘清方向。未来的人工智能或许不在于更大的模型,而在于更深的理解。