模型框架
-
蚂蚁开源万亿参数大模型Ling-2.6-1T,代码能力和推理干到开源顶尖
【核心看点】• 蚂蚁集团正式开源万亿级大模型Ling-2.6-1T,采用创新混合架构• 在代码生成、缺陷修复、噪声环境下的精准推理方面达到开源领域顶尖水平• 可适配多工具、多约束的复杂业务场景,展现强大多步执行能力 【详细解析】 蚂蚁集团近日在Hugging Face上正式开源了万亿参数级大模型Ling-2.6-1T,这是国内金融科技巨头在AI基础模型领域的一次重磅出击。 Li…
-
DeepSeek灰度上线识图模式,多模态能力正式落地
【核心看点】· DeepSeek在网页端和App端灰度测试”识图模式”,填补多模态能力空白· 该模式作为独立一级入口,与快速、专家模式并列,定位为核心能力· 目前开放图片理解能力,涵盖视觉问答、截图分析等场景 【详细解析】4月29日,DeepSeek开始灰度测试”识图模式”,标志着这家在中国AI圈风头正劲的公司,终于补齐了多模态这…
-
文心一言5.1预览版上线LMSYS国际盲测,目前位列全球第13位
核心看点 • 文心一言5.1预览版低调上线 LMSYS Chatbot Arena 国际盲测平台• 目前位列全球第13位,表现可圈可点• 百度核心模型进入新一轮快速迭代周期,开始接受全球用户检验 大模型圈子里,LMSYS Chatbot Arena 是一个绕不开的参考指标。它是一个国际大模型盲测平台,用户投票决定模型排名,相对客观。 文心一言5.1预览版最近悄悄上线了这个平台,…
-
DeepSeek 开启识图模式灰度测试,多模态视觉理解正式落地
核心看点 • DeepSeek-V4 发布后火速上线识图模式,多模态视觉理解能力正式落地• 移动端与网页版新增识图入口,基础视觉理解、描述、推理表现出色• 极端视觉场景下识别率仍有提升空间 DeepSeek 最近有点猛。刚发完 V4 大模型,转头就把多模态识图功能灰度测试给开了。 这波操作什么意思呢?就是 DeepSeek 不仅能”看懂文字”了,还能&#…
-
蚂蚁百灵万亿级大模型Ling-2.6-1T正式开源:1万亿参数,主打”快思考”
蚂蚁集团旗下的百灵大模型迎来重大动作——Ling-2.6-1T 正式开源!这不是一个”为了大而大”的参数怪物,而是一头真正能打”实战”的万亿级综合旗舰模型。 核心看点 1万亿参数规模,采用MLA与Linear Attention混合架构,兼顾性能与效率 主打”快思考”策略,通过抑制过程冗余的强化奖励机制压缩…
-
苹果发布AI推理框架LaDiR:突破单一思维,让AI同时探索多条解题路径
核心看点 并行推理机制:LaDiR让AI在回答问题前同时启动多条独立的推理路径,从随机噪声开始逐步优化,最后选出最佳答案 扩散+自回归混合架构:推理阶段使用扩散模型并行探索,最终输出阶段使用自回归模型保证连贯性 多样性鼓励机制:框架内置特殊机制防止所有路径过早收敛于同一结论,确保每条路径探索不同解题思路 实测表现优异:在LLaMA 3.1 8B和Qwen3-8B-Base上部署…
-
英伟达发布Nemotron 3 Nano Omni全模态模型:30B-A3B MoE架构,推理吞吐量暴涨9倍
核心看点 全模态统一:Nemotron 3 Nano Omni将视频、音频、图像和文本推理集成于单一模型,替代传统碎片化的视觉-语音-语言模型链 30B-A3B混合MoE架构:结合Mamba层(提升序列与内存效率)和Transformer层(精准推理),内存和计算效率最高提升4倍 吞吐量9倍领先:在视频推理任务中,相比其他开源全模态模型,有效系统容量最高提升约9.2倍;多文档推…
-
英伟达发布 Nemotron 3 Nano Omni 全模态模型:30B-A3B 混合 MoE,吞吐量飙升 9.2 倍
英伟达近日宣布推出 Nemotron 3 Nano Omni,一款面向企业级 AI Agent 平台的开源全模态推理模型,可将视频、音频、图像和文本的多模态推理集成于单一模型中,替代传统碎片化的多模型链方案。 核心看点 30B-A3B 混合 MoE 架构:结合 Mamba 层(高效序列处理)与 Transformer 层(精准推理),计算效率最高提升 4 倍 吞吐量碾压级表现:…
-
蚂蚁集团百灵大模型开源 Ling-2.6-flash:104B参数仅激活7.4B,推理速度最高340 tokens/s
蚂蚁集团旗下百灵大模型今日宣布正式开源 Ling-2.6-flash,这是一款总参数量 104B、激活参数仅 7.4B 的 Instruct 模型,以极低的推理成本实现了令人瞩目的性能表现。 核心看点 104B 总参、7.4B 激活:采用混合专家(MoE)架构,大幅降低推理资源需求 推理速度达 340 tokens/s:在 4 卡 H20 环境下实现极速推理,Prefill 吞…
-
蚂蚁集团百灵大模型开源 Ling-2.6-flash:104B参数、4卡H20跑到340 tokens/s
4月29日消息,蚂蚁集团旗下百灵大模型今日宣布 Ling-2.6-flash 正式开源,同步提供 BF16、FP8、INT4 等多个量化版本,方便开发者根据硬件环境和部署需求灵活选择。 核心看点 惊人推理速度:4卡H20环境下推理速度最快可达 340 tokens/s 超高效 Token 消耗:完整评测仅消耗 1500 万 tokens,约为竞品的 1/10 104B 总参 +…
