核心看点
4月24日,深度求索(DeepSeek)正式发布了V4预览版,这次更新可以说是国产大模型领域的又一里程碑。最让人眼前一亮的是,V4直接标配了1M超长上下文能力,这意味着什么?简单来说,你可以扔给AI一整本书、一份超长合同,或者几百页的技术文档,它都能完整理解并给出精准回答,不再需要分段处理。
这次V4推出了两个版本:Pro版性能接近顶级闭源模型,适合对质量要求高的场景;Flash版则在保证不错效果的同时大幅降低成本,对开发者和中小企业更友好。这种”双轨制”策略很聪明,既秀了肌肉,又考虑了商业化落地。
技术层面,V4采用了DSA机制优化长上下文处理,有效降低了计算成本。同时,模型在Agent能力、世界知识和推理性能上都有明显提升,特别是在复杂任务拆解和多步骤执行方面表现突出。
更值得关注的是生态层面的进展。寒武纪在V4发布当天就完成了Day 0适配,通过自研融合算子库和vLLM框架优化,实现了模型在国产芯片上的稳定运行。这说明国产AI软硬件协同正在加速,不再只是”能跑”,而是”跑得好”。
目前用户可以通过DeepSeek官网或App体验V4,API也已同步更新。对于需要处理长文档、复杂数据分析的用户来说,这次升级值得第一时间上手试试。
本文地址:https://www.163264.com/11105


