蚂蚁百灵发布万亿旗舰 Ling-2.6-1T:不走推理路线的”快思考”模型,对标 GPT-5.4

蚂蚁集团旗下百灵大模型团队正式发布了一款不走寻常路的作品——面向即时任务执行的万亿级综合旗舰模型 Ling-2.6-1T。它放弃了行业普遍追求的”慢思考”多步推理模式,用”快思考”机制硬刚 GPT-5.4 非推理版。

核心看点

  • Ling-2.6-1T 采用 MLA + LinearAttention 混合架构,万亿参数仅凭极低 Token 开销直达结果,压缩成本和延迟
  • 综合智能水平与 GPT-5.4(非推理模式)同一档次,在 AIME2026 高难度推理任务中显著领先其他非思考型模型
  • Agent 能力突出:SWE-bench Verified、TAU2-Bench、BFCL-V4 等多个榜单位居前列
  • 支持 256K 超长上下文,IFBench 指令遵循测试表现优异
  • 目前已在 OpenRouter 与官方平台提供一周免费 API 调用,近期将正式开源

不走寻常路的”快思考”路线

当前大模型竞赛中,各路玩家几乎都在往”长思考推理”方向狂奔——通过多步 CoT(链式思考)提升推理精度,代价是高昂的 Token 消耗和响应延迟。

但 Ling-2.6-1T 选择了相反的技术路线。它通过 MLA(Multi-head Latent Attention)与 LinearAttention 的混合架构设计,用”快思考”机制实现高效推断。核心思路很直接:不那么”绕弯子”,用极低的 Token 开销直达结果,显著压缩输出成本和延迟。

这种策略是否有效?从 Artificial Analysis 评测数据看,其综合智能水平已与 GPT-5.4 非推理模式处于同一档次。在 AIME2026 这类高难度推理基准上,表现更是显著领先于其他非思考型模型。

考虑到这是一个万亿参数级别的模型,能走出自己的技术路线而非简单堆叠推理深度,值得关注。

Agent 执行能力不俗

除了基础智能水平的提升,Ling-2.6-1T 在 Agent 能力方面同样表现突出。从代码生成到缺陷修复的完整工程流(SWE-bench Verified),到复杂 API 协同调用(BFCL-V4),再到多轮 Agent 任务(TAU2-Bench),多个主流榜单均位居前列。

这意味着模型的”执行力”不错——不仅”知道”该怎么做,还能稳定执行出来。配合 256K 超长上下文,处理复杂任务时有着充足的信息承载能力。

产品矩阵与开源计划

随着旗舰模型发布,蚂蚁百灵的产品矩阵也进一步清晰:Ling 系列覆盖从轻量 Lite 到综合旗舰的层次;Ring 系列走长思考路线;Ming 系列专注多模态。多重布局,覆盖不同场景需求。

最值得关注的是:百灵团队已透露 Ling-2.6-1T 将于近期正式开源。如果开源版本真能达到对标 GPT-5.4 非推理版的水平,对于开发者社区将是一个不小的震动。

目前模型已在 OpenRouter 与官方平台同步提供一周免费 API 调用,感兴趣的开发者可以抢先体验。

本文地址:https://www.163264.com/11192

(0)
上一篇 20小时前
下一篇 16小时前