美团万亿级大模型 LongCat-2.0-Preview 开放测试:全程国产算力,突破”卡脖子”困境

美团正在悄悄干一件大事。旗下新一代基础大模型 LongCat-2.0-Preview 已正式开放邀请测试,总参数量级突破万亿,更关键的是——全程基于国产化算力集群完成训练。

核心看点

  • LongCat-2.0-Preview 采用混合专家(MoE)架构,总参数量级达万亿级别
  • 整体能力对标 GPT-4,跻身全球顶尖大模型行列
  • 全程基于国产化算力集群训练,标志着美团在国产算力训练万亿模型上取得关键突破
  • 此前已开源 LongCat-Flash(5600亿参数),采用”零计算专家机制”降低运营成本

国产算力的里程碑

在当前的国际形势下,大模型的训练依赖于海外高端 GPU 已成为许多中国科技公司的心病。美团 LongCat-2.0-Preview 的突破性不在于它有多强(虽然参数万亿确实很强),而在于它证明了国产算力集群也能撑起万亿级模型的训练。

据知情人士透露,该模型完全基于国产化算力集群训练。这意味着从底层芯片到训练框架,全部基于国内自主技术实现。在目前大模型军备竞赛白热化的背景下,这一进展有着特殊的战略意义。

早在 2024 年财报业绩会上,美团创始人王兴就曾明确表示要持续投入数十亿美元保障算力供应。如今看来,这笔投入已经有了实质性的产出。

从 Flash 到 Preview:一条清晰的技术演进路径

美团的 AI 布局并非一日之功。去年 9 月发布的 LongCat-Flash 已经展示了美团在大模型方向的积累——5600 亿参数的 MoE 架构,加上”零计算专家机制”这种创新优化设计,在保持高推理效率的同时大幅降低运营成本。

从 Flash 的 5600 亿到 Preview 的万亿参数,背后是算力基础设施能力的质变。而从”零计算专家”到全程国产算力训练,说明美团不仅在堆参数,也在解决更底层的工程化和自主化问题。

美团 AI 布局意味着什么

很多人提到美团就想到外卖和本地生活,但其实美团的 AI 布局远比外界想象的深入。LongCat 系列覆盖了大语言模型、多模态模型、音频生成等多个方向,已经形成了一个相对完整的技术栈。

这次 LongCat-2.0-Preview 的发布,既是美团 AI 战略的一个里程碑,也是国产算力走向实战的一次重要验证。万亿参数、国产训练、对标 GPT-4——这三个关键词放在一起,意味着国产大模型在自主可控道路上迈出了扎实一步。

本文地址:https://www.163264.com/11194

(0)
上一篇 16小时前
下一篇 16小时前