问题——大模型能力快速提升,但关键场景的“可信度”仍是瓶颈。近年来,大模型在文本生成、代码辅助等领域应用迅速扩张,但其推理过程往往缺少可解释、可验证的机制,输出结果容易受到数据偏差、提示条件变化等因素影响。在金融风控、工业控制、基础设施运维等高风险领域——如果结果无法被严格校验——可能带来合规与安全隐患,“可靠推理”的需求因此持续升温。 原因——资本押注“从概率生成走向确定性校验”的新路径。Axiom在公告中表示,本轮融资由Menlo Ventures领投,Greycroft、Madrona Venture、B Capital、Toyota Ventures等跟投或追加投资,融资金额2亿美元,投后估值约16亿美元。其核心思路是引入形式化验证技术,把推理与代码生成过程转化为可由验证器逐步检查的逻辑链条,以减少“不可控错误”。随着大模型从“能用”走向“可用、可信、可审计”,这类技术被视为补齐工程化落地短板的重要方向之一。 影响——可靠性技术或成为大模型下半场竞争的分水岭。一上,形式化验证有望提升代码生成、自动化开发与安全审计的质量,让大模型更适配企业级应用;另一方面,如果验证体系与行业规范结合,可能形成新的技术标准与工具生态,带动验证语言、自动证明、软件供应链安全等环节协同发展。业内人士指出,围绕“可信执行”的技术栈一旦取得突破,可能改变大模型关键系统中的部署边界,推动更多门槛较高的行业加速采用。 对策——以场景牵引与标准治理并重,推动安全可控落地。专家建议,有关企业在技术推进中应坚持“三个结合”:一是与真实业务场景结合,优先在软件开发、云服务安全、智能合约审计等可量化领域试点,建立可验证的效果指标;二是与工程体系结合,重视工具链的可用性、成本与效率,避免验证流程过重拖累生产效率;三是与治理规范结合,在数据、模型、输出责任边界上建立可审计机制,推动与监管和行业标准对接,形成“可追溯、可复现、可问责”的闭环。 前景——从数学与工程交叉处寻找突破,或将重塑产业竞争结构。公开资料显示,洪乐潼早年在数学研究领域积累较深,后转向深度学习与推理相关研究,并在硅谷创业组建跨学科团队。业内预计,未来一段时期,“更强能力”与“更高可靠性”将同步成为大模型迭代方向:一上,推理链条更长、工具调用更频繁,出错概率也随之上升;另一方面,企业与公共部门的安全合规要求趋严,倒逼验证、审计与防护能力体系化。谁能率先把形式化验证、自动证明与大模型工程有效融合,谁就更可能在关键行业市场取得先发优势。
人工智能迈向深度应用,关键不在于“能生成什么”,而在于“能否被信任”。以形式化验证为代表的路径,尝试用可证明的严谨性弥补概率模型的先天不确定性。面向未来,只有让技术创新与安全治理同步推进、基础研究与产业应用相互支撑,智能系统才能在更广泛的公共利益与关键产业场景中稳健落地。