DeepSeek-V4预览版发布:1M超长上下文进入普惠时代

核心看点

  • DeepSeek-V4预览版正式发布,开源并支持1M超长上下文
  • 提供Pro和Flash双版本,兼顾性能与性价比
  • 寒武纪完成Day 0适配,国产芯片生态加速完善

4月24日,深度求索(DeepSeek)正式发布了V4预览版,这次更新可以说是国产大模型领域的又一里程碑。最让人眼前一亮的是,V4直接标配了1M超长上下文能力,这意味着什么?简单来说,你可以扔给AI一整本书、一份超长合同,或者几百页的技术文档,它都能完整理解并给出精准回答,不再需要分段处理。

这次V4推出了两个版本:Pro版性能接近顶级闭源模型,适合对质量要求高的场景;Flash版则在保证不错效果的同时大幅降低成本,对开发者和中小企业更友好。这种”双轨制”策略很聪明,既秀了肌肉,又考虑了商业化落地。

技术层面,V4采用了DSA机制优化长上下文处理,有效降低了计算成本。同时,模型在Agent能力、世界知识和推理性能上都有明显提升,特别是在复杂任务拆解和多步骤执行方面表现突出。

更值得关注的是生态层面的进展。寒武纪在V4发布当天就完成了Day 0适配,通过自研融合算子库和vLLM框架优化,实现了模型在国产芯片上的稳定运行。这说明国产AI软硬件协同正在加速,不再只是”能跑”,而是”跑得好”。

目前用户可以通过DeepSeek官网或App体验V4,API也已同步更新。对于需要处理长文档、复杂数据分析的用户来说,这次升级值得第一时间上手试试。

本文地址:https://www.163264.com/11105

(0)
上一篇 11小时前
下一篇 5小时前

相关推荐