今日,DeepSeek官方API迎来重大更新,上下文长度从之前的128k直接跃升至1M tokens(百万Token),与App及网页版对齐。与此同时,知识库也同步更新至2025年5月,非联网状态下已能准确输出2025年4月的新闻内容。
核心看点
- DeepSeek API上下文从128k升级至1M tokens,与客户端对齐
- 知识库更新至2025年5月,离线也能回答最新资讯
- 模型仍为非多模态,暂不支持视觉输入
- DeepSeek V4旗舰模型将于4月下旬正式发布
百万上下文意味着什么
128k到1M的跨越,不是简单的数字游戏。1M tokens意味着:
- 可以一次性处理约75万汉字的上下文
- 能够直接分析整本长篇小说、完整代码库、或多小时会议记录
- 长文档问答、代码审计、论文分析等场景的实用性大幅提升
- 减少了频繁分段处理的麻烦,连贯性和准确性显著改善
对于开发者而言,这意味着构建RAG应用时有了更大的操作空间,可以放入更多背景资料而不必担心上下文截断。
知识库刷新,离线也能聊时事
除了上下文升级,DeepSeek的知识库也已更新至2025年5月。这意味着即使没有联网搜索,模型也能准确回答2025年4月的新闻事件。对于企业内网部署、隐私敏感场景,这是一个非常实用的提升。
V4旗舰即将到来
创始人梁文锋此前已透露,DeepSeek新一代旗舰大模型DeepSeek V4将于4月下旬正式发布。综合近期动态来看,DeepSeek正在密集储备火力:
- 4月8日上线专家模式,擅长处理复杂问题
- 专家模式已支持文件上传
- API上下文能力大幅提升
业内猜测,此次API更新的百万上下文模型可能就是传闻中的DeepSeek V4 Lite版本。而正式版的V4是否会带来多模态能力、更强的推理性能,值得期待。
非多模态仍是短板
需要指出的是,当前更新的API模型仍不支持视觉输入,仅支持文本和语音处理,依然为非多模态模型。在GPT-4V、Claude 3、Gemini均已支持图文理解的当下,这无疑是DeepSeek需要补齐的短板。
不过考虑到DeepSeek一贯”先做好文本再扩展多模态”的稳扎稳打路线,以及此前曝光的V4 Lite原生多模态AI信息,正式版V4很可能会一步到位解决视觉能力。
大模型长上下文竞赛白热化
2025年以来,大模型的上下文长度竞赛明显加速:
- Gemini 1.5 Pro:2M tokens
- Claude 3:200k tokens
- Kimi:2M characters(约1M tokens)
- DeepSeek:1M tokens
长上下文已经从”差异化卖点”变成了”基础标配”。下一步的竞争焦点,或许将转向长上下文下的信息提取精度、推理连贯性、以及成本效率。
DeepSeek V4能否在保持高性价比的同时,在长上下文场景给出惊艳表现?4月下旬,答案即将揭晓。
本文地址:https://www.163264.com/11054