ring-2.5-1t 开源人工智能大模型

中国日报2月13日报道,蚂蚁集团把他们开发的Ring-2.5-1T模型给开源了。这个模型是全球第一个用混合线性架构训练出来的,参数有一万亿这么多。 这个模型在处理长文本、做数学推理还有智能体任务这些方面,都给行业里的其他模型甩在后面了。给Ring-2.5-1T拿出来遛遛,你就会发现它在生成32K以上的长文本时,比之前的版本快多了,访问内存的规模也减小了不少。 在国际数学奥林匹克竞赛(IMO)和中国数学奥林匹克(CMO)的自测中,Ring-2.5-1T把分数考得很出色,IMO拿了35分,CMO更是冲到了105分。Claude Code、OpenClaw这些智能体框架和个人AI助理都能轻松用它,还能做多步规划和调用工具。 这次在权威测试里,Ring-2.5-1T跟DeepSeek-v3.2-Thinking、Kimi-K2.5-Thinking还有GPT、Gemini这些主流的模型比了一下,在代码生成、逻辑推理和执行复杂任务这些高难度场景里都胜出了。特别是在那种需要深度思考的模式下,在IMOAnswerBench、HMMT-25这些数学竞赛的推理基准测试里,还有LiveCodeBench-v6的代码生成基准里,Ring-2.5-1T把其他所有对手都甩开了。 这个模型是基于Ling 2.5架构弄出来的。以前的版本激活参数才51B,现在的升级到了63B。不过因为用了混合线性注意力架构,推理效率比起上一代反而快了不少。就算是跟只有32B激活参数的KIMI K2比起来,在总参数量一样是1T的情况下,Ring-2.5-1T处理长文本任务的速度还是快得多,而且生的内容越长,优势越明显。 AI大模型现在越来越多往处理长文档、跨文件代码理解这些方向发展了。Ring-2.5-1T正好解决了输出长文本时计算慢的问题。 这个开源的举动也展示了蚂蚁百灵团队在训练基础设施、算法优化和工程落地方面的本事。现在,你已经可以在Hugging Face和ModelScope这些平台上找到Ring-2.5-1T的权重和推理代码了。官方的Chat体验页和API服务马上也要上线了。