从现在开始,1M(一百万)上下文将是DeepSeek所有官方服务的标配。
刚刚,DeepSeek-V4预览版本正式上线并同步开源!
DeepSeek-V4预览版模型按大小分为两个版本,分别是DeepSeek-V4-pro和DeepSeek-V4-flash。DeepSeek称,DeepSeek-V4拥有百万字超长上下文,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。
DeepSeek-V4系列在架构和优化方面引入了多项关键升级,首先是开创了一种全新的注意力机制,在token维度进行压缩,结合DSA稀疏注意力,实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。在百万Token上下文场景下,DeepSeek-V4-Pro相比DeepSeek-V3.2仅需27%的单Token推理FLOPs和10%KV缓存。DeepSeek称,从现在开始,1M(一百万)上下文将是DeepSeek所有官方服务的标配。
其次是流形约束超连接(Manifold-Constrained Hyper-Connections, mHC),在传统残差连接基础上引入mHC,增强跨层信号传播的稳定性,同时保留模型的表达能力。
第三是Muon优化器,能够实现更快的收敛速度和更高的训练稳定性。
DeepSeek-V4-Pro,比肩顶级闭源模型
相比前代模型,DeepSeek-V4-Pro的Agent能力显著增强。在Agentic Coding评测中,V4-Pro已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。目前DeepSeek-V4已成为公司内部员工使用的Agentic Coding 模型,据评测反馈使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6 思考模式存在一定差距。
在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。
DeepSeek-V4-Flash,经济之选
由于模型参数和激活更小,相较之下DeepSeek-V4-flash能够提供更加快捷、经济的 API 服务。在Agent测评中,DeepSeek-V4-Flash在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,但在高难度任务上仍有差距。
开源权重和本地部署
DeepSeek-V4 模型开源链接:
https://huggingface.co/collections/deepseek-ai/deepseek-v4
https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4
DeepSeek-V4 技术报告:
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。