4月24日,DeepSeek宣布,其下一代大型语言模型DeepSeek V4预览版正式上线并同步开源,该模型在智能体能力、长上下文处理及成本控制等方面实现了突破,并在部分测评中比肩世界顶尖闭源模型。
DeepSeek V4系列共发布两个版本:性能顶尖的“V4-Pro”版和高性价比的“V4-Flash”版。两者均将100万Token的上下文长度作为标配。
记者了解到,上下文越长,通常意味着模型能够“记住”更多信息,拥有更广的“视野”和更强的“一次性处理复杂任务”的能力,对算力和算法的挑战也越大。
深度求索方面表示,DeepSeek-V4开创了一种全新的注意力机制,在token维度进行压缩,结合DSA稀疏注意力,实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。其表示,从现在开始,百万上下文将是DeepSeek所有官方服务的标配。
根据深度求索公布的信息,新版模型智能体能力大幅提高。在Agentic Coding(智能体编程)评测中,V4-Pro已达到当前开源模型最佳水平,并在其他智能体相关评测中同样表现优异。“目前DeepSeek-V4已成为公司内部员工使用的Agentic Coding模型,据评测反馈使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距。”深度求索在其官方信息中将自家模型与国际顶尖模型公司同行的产品比较时这样说道。
其表示,DeepSeek-V4-Pro在世界知识测评中,大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。而在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro也超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。一位用户试用后告诉记者,新上线的这一模型速度更快,词元消耗更少,上下文更多。
来源:北京日报客户端
记者:孙奇茹