蚂蚁百灵万亿级大模型Ling-2.6-1T正式开源:1万亿参数,主打”快思考”

蚂蚁集团旗下的百灵大模型迎来重大动作——Ling-2.6-1T 正式开源!这不是一个”为了大而大”的参数怪物,而是一头真正能打”实战”的万亿级综合旗舰模型。

核心看点

  • 1万亿参数规模,采用MLA与Linear Attention混合架构,兼顾性能与效率
  • 主打”快思考”策略,通过抑制过程冗余的强化奖励机制压缩Token成本
  • 在AIME26、SWE-bench Verified、BFCL-V4等基准上达到开源SOTA
  • 已在OpenRouter平台提供免费API体验,并将免费期延长一周
  • 支持Agent、Coding、工作流等复杂多步任务场景

很多人看到”万亿参数”就本能觉得——这是个烧钱的巨无霸。但蚂蚁这次打的是”智效比”牌。

Ling-2.6-1T 没有像传统大模型那样一味堆长思考链,而是引入了一种混合注意力机制(MLA + Linear Attention),配合抑制”过程冗余”的强化奖励策略,让模型在保持强劲综合智能的同时输出更短的思考链。翻译成人话就是:脑子够大,但想事情快,花钱少。

在复杂任务方面,Ling-2.6-1T 补齐了传统万亿参数模型最弱的一环:多步执行能力。无论是 Coding、Agent 任务还是工作流场景,它都拿到了开源 SOTA 的成绩。这意味着它不只是个”问答机器”,而是真正能在实际项目里干活的。

更关键的是,蚂蚁并没有把门槛设得高不可攀。OpenRouter 上的免费 API 调用服务又延期了一周,开发者可以直接上手体验。GitHub 和 ModelScope 上的模型权重也已开放下载。

开源链接:
– Hugging Face: https://huggingface.co/inclusionAI/Ling-2.6-1T
– ModelScope: https://www.modelscope.cn/models/inclusionAI/Ling-2.6-1T
– OpenRouter免费体验: https://openrouter.ai/inclusionai/ling-2.6-1t:free

在开源大模型领域,Ling-2.6-1T 的出现意味着万亿级参数模型终于开始从”实验室炫技”走向”生产可部署”。这对于 AI 应用开发者来说,无疑是个值得关注的好消息。

本文地址:https://www.163264.com/11337

(0)
上一篇 10小时前
下一篇 4小时前

相关推荐