DeepSeek V4 发布:百万上下文标配,Pro 推理追平顶级闭源,主动对标 Claude Opus 4.6

DeepSeek 今日正式发布 V4 系列模型预览版,同步开源上线,引发业内广泛关注。

## 核心升级:百万上下文成为标配

V4 系列最大的变化是将 100 万(1M)token 上下文窗口直接下放为所有官方服务的标配,不分版本、不分价位。这意味着用户无需额外付费或申请,即可直接使用超长上下文能力。

V4 系列包含两个型号:

– **V4-Pro**:旗舰版本,面向复杂推理与 Agent 任务
– **V4-Flash**:轻量版本,主打经济实惠,适合日常场景

## 性能对标:Pro 推理能力已追平顶级闭源模型

根据 DeepSeek 官方公布的评测数据,V4-Pro 的推理能力已经和目前最顶尖的闭源模型基本持平。在世界知识维度上,仅次于 Gemini-Pro-3.1。日常使用中体验差距已经非常小。

## 最有意思的部分:主动对标 Claude Opus 4.6

DeepSeek 在发布公告中罕见地主动进行横向对比。内部员工实际使用 V4-Pro 进行 Agentic Coding(让 AI 自主完成编程任务)的反馈显示:

– 体验优于 **Claude Sonnet 4.5**
– 交付质量接近 **Claude Opus 4.6 非思考模式**
– 与 Opus 4.6 开启深度思考模式后仍有差距

这种”主动承认差距”的表述在国内厂商发布公告中相当罕见。某种程度上也说明,Claude Opus 4.6 的思考模式已经成了行业内的隐性天花板。

## 技术细节:稀疏注意力机制降低显存成本

V4 在架构上引入了两项新技术:

1. **Token 层面压缩的新型注意力机制** — 在计算时对 token 序列进行智能压缩,减少无效计算
2. **DSA 稀疏注意力** — 配合自研的稀疏注意力算法,让百万上下文的计算量和显存需求大幅下降

简单总结就是:以前百万上下文是”能做但很贵”,现在变成了”标配且不加价”。开发者可以把整个代码库、完整文档集一次性丢进去处理,不用再费心做上下文切分。

## 实用信息:主流 Agent 工具适配

V4 专门针对 Claude Code、OpenClaw 等主流 Agent 工具做了适配优化。

API 层面同时支持 OpenAI 和 Anthropic 两种接口格式,切换只需要改一个 model 参数。兼容性大幅提升。

另外需要注意:**deepseek-chat** 和 **deepseek-reasoner** 这两个旧接口名还能继续使用三个月,**2025 年 7 月 24 日之后正式停止服务**,开发者请提前做好迁移规划。

## 总结

DeepSeek V4 以”百万上下文标配”为核心卖点,配合稀疏注意力降低使用成本,同时在性能上已经接近顶级闭源模型。主动对标 Claude Opus 4.6 的做法也让人看到了这家公司的技术自信。对于需要长上下文能力的开发者来说,V4 值得关注。

本文地址:https://www.163264.com/11081

(0)
上一篇 18小时前
下一篇 5小时前

相关推荐