JeecgBootAI专题研究|2026年4月大模型四强横评:参数、基准、价格、场景全维度对比48小时内两款旗舰接连亮相——昨天GPT-5.5,今天DeepSeek-V4-Pro。 基准测试二:推理与知识GPQADiamond(研究生级物理/化学/生物推理题):展开代码语言:TXTAI代码解释DeepSeek-V4-Pro██████████████████████████████ 深度解析三:DeepSeek-V4-Pro(今日发布)今天(4月24日)凌晨刚在HuggingFace放出的预览版。 一个开发者的实用建议如果你只能选一款长期用:预算优先:MiniMaxM2.7($0.30/M,速度还快)开源优先:DeepSeek-V4-Pro(1.6T+MIT+1M上下文)编程优先:GLM-5.1( 未来几周,随着DeepSeek-V4-Pro稳定版落地、GPT-5.5价格可能的调整、以及KimiK3和Qwen4的可能发布,格局还会继续演变。值得持续跟踪。
-pro","ANTHROPIC_SMALL_FAST_MODEL":"deepseek-v4-flash","ANTHROPIC_DEFAULT_SONNET_MODEL":"deepseek-v4- pro","ANTHROPIC_DEFAULT_OPUS_MODEL":"deepseek-v4-pro","ANTHROPIC_DEFAULT_HAIKU_MODEL":"deepseek-v4-flash ","CLAUDE_CODE_SUBAGENT_MODEL":"deepseek-v4-pro","CLAUDE_CODE_EFFORT_LEVEL":"max"},"model":"deepseek-v4 配置完成后,ClaudeCode启动界面上已经清楚地显示deepseek-v4-pro·APIUsageBilling,问它"你是什么模型",回答干脆利落:我是DeepSeekV4Pro模型。 测试环境:ClaudeCodev2.1.119,DeepSeekV4-Pro(deepseek-v4-pro),2026-04-24本文为JeecgBootAI专题研究系列文章。
一、问题描述使用WorkBuddy连接DeepSeekV4系列模型(deepseek-v4-pro/deepseek-v4-flash)时,当AI响应涉及工具调用(tool_calls),WorkBuddy 三、复现步骤在WorkBuddy中配置自定义模型,API地址指向DeepSeek官方API选择模型ID为deepseek-v4-pro或deepseek-v4-flash发起一段需要工具调用的对话(例如 七、参考信息DeepSeekV4发布日期:2026-04-24V4系列模型:deepseek-v4-pro,deepseek-v4-flash旧模型下线日期:2026-07-24相关协议字段:reasoning_content
-pro","ANTHROPIC_SMALL_FAST_MODEL":"deepseek-v4-flash","ANTHROPIC_DEFAULT_SONNET_MODEL":"deepseek-v4- ","CLAUDE_CODE_SUBAGENT_MODEL":"deepseek-v4-pro","CLAUDE_CODE_EFFORT_LEVEL":"max"},"model":"deepseek-v4 配置完启动,ClaudeCode界面上直接显示deepseek-v4-pro,问它"你是什么模型",回答干脆利落。 整个过程完全无感,如果不是终端上写着deepseek-v4-pro,我甚至以为自己在用Claude原生模型。改文档这类任务对V4-Pro来说属于"降维打击",速度快、理解准、输出干净。 测试环境:ClaudeCodev2.1.119,DeepSeekV4-Pro(deepseek-v4-pro),2026-04-24本文为JeecgBootAI专题研究系列文章。
该系列包含两款模型:DeepSeek-V4-Pro:总参数量1.6T,激活参数49BDeepSeek-V4-Flash:总参数量284B,激活参数13B两款模型都原生支持100万token的上下文长度, 这套机制带来的直接收益非常可观:在1Mtoken的上下文场景下,DeepSeek-V4-Pro相较V3.2,单token推理FLOPs仅需27%,KVCache仅需10%。 七、总结与思考DeepSeek-V4-Pro这次发布,有几个信号值得重点关注:第一,开源阵营在编程能力上已经追上甚至反超闭源旗舰。 如果工程实测能贴近这个理论值,DeepSeek-V4-Pro可能成为长文档处理、代码仓库分析等场景的默认选择,因为同样的硬件能跑更长的上下文,或者同样的上下文能服务更多并发。 原项目地址:https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro
它包含两个主要版本:DeepSeek-V4-Pro:旗舰版,总参数量高达1.6万亿,激活参数为49B。DeepSeek-V4-Flash:经济版,总参数量为284B,激活参数为13B。 模型名称(ModelName):旗舰版:deepseek-v4-pro经济版:deepseek-v4-flash这些信息是后续配置的核心。 例如,为deepseek-v4-pro设置一个别名:展开代码语言:BashAI代码解释openclawconfigset'models.models.deepseek/deepseek-v4-pro'- /deepseek-v4-pro'如果您更倾向于使用经济版,可以替换为deepseek/deepseek-v4-flash。 5.3成本与性能权衡DeepSeek-V4-Pro:适用于需要最高推理精度和代码生成质量的任务,如复杂的软件架构设计、高难度算法题解答等。成本相对较高。
这次发布包含了两个主要版本:DeepSeek-V4-Pro:旗舰版本总参数量:1.6万亿(1.6T)激活参数:490亿(49B)适用于复杂推理、长文本分析等高性能场景DeepSeek-V4-Flash: # Available models: deepseek-v4-flash, deepseek-v4-pro 您也可以直接在 Hermes provider: "deepseek-v4-pro" model: "deepseek-v4-pro" 5.1.2 注册技能将技能文件放入 -Pro 确保服务质量 default_model: "deepseek-v4-pro" # 多租户支持 multi_tenant: enabled: true tenant_isolation -pro" model: "deepseek-v4-pro" # 代码执行环境 tools: code_execution: enabled: true languages
原文还提到其混合专家模型设计:以deepseek-v4-pro为例,总参数规模达到1.6万亿,但单次推理只激活约490亿参数,这使得它在复杂逻辑与成本之间取得了少见的平衡。 ;第二,请求具备可观测性,超时、重试、状态码、请求标识、耗时分布、失败样本都能进入日志和监控;第三,接口级联成为可能,对外维持统一入口,对内根据任务类型把请求路由给deepseek-v4-flash、deepseek-v4 payload={"model":"deepseek-v4-pro","messages":[{"role":"system","content":"你是一个代码审查专家"},{"role":"user try:client.chat.completions.create(model="deepseek-v4-pro",messages=[{"role":"user","content":"hello" 今天你接的是deepseek-v4-flash与deepseek-v4-pro,明天如果出现新的推理模型、视觉模型或特定行业模型,只要协议层保持一致,业务代码不用整体重写。
DeepSeek-V4-Pro通过API的定价为:缓存未命中时每百万输入token 1.74美元,每百万输出token 3.48美元。简单的一百万输入加一百万输出比较为5.22美元。 Gemini 3 Flash为3.50美元,某中心Kimi-K2.5为3.60美元,某中心MiMo-V2-Pro为4.00美元,某中心GLM-5为4.20美元,某中心GLM-5-Turbo为5.20美元,某中心DeepSeek-V4 Sonnet 4.5为18.00美元,某机构Claude Opus 4.7为30.00美元,某机构GPT-5.5为35.00美元,某机构GPT-5.4 Pro为210.00美元)在标准缓存未命中定价下,DeepSeek-V4 使用缓存输入时,差距进一步扩大:DeepSeek-V4-Pro成本约为某模型5.5的十分之一,约为某机构模型4.7的八分之一。更极致的近零定价属于DeepSeek-V4-Flash(非Pro模型)。 基准测试对比:DeepSeek-V4-Pro接近,但某模型5.5和某机构模型4.7在多数共享测试中仍领先DeepSeek-V4-Pro-Max最好被理解为一个重大的开放权重跃升,而非对所有最新闭门前沿系统的全面击败
DeepSeek-V4:效率与能力的双重跃升DeepSeek-V4 系列包括 DeepSeek-V4-Pro(1.6T 总参数 / 49B 激活) 与 DeepSeek-V4-Flash(284B 总参数 AIOS 率先完成私有化适配,全面支持国产化算力ZStack AIOS 现已全面支持 DeepSeek-V4-Pro 与 DeepSeek-V4-Flash 在自有数据中心的私有化部署。
展开代码语言:PythonAI代码解释defcall_deepseek_v4(messages,model="deepseek-v4-pro",timeout=60,max_retries=4):url 统一封装后,后续切换deepseek-v4-flash与deepseek-v4-pro只需要改模型参数,不需要重写请求逻辑。 deepseek-v4-pro只在字段冲突、条款歧义、金额与期限相互矛盾时介入复核。抽取函数依然可以沿用原文思路,只是接入方式改成DМXΑРΙ。 3.模型分级路由不要让deepseek-v4-pro处理所有事情。可以先由deepseek-v4-flash完成预处理和分类,再把需要深推理的样本路由给Pro。 合成Agent:使用deepseek-v4-pro综合全部材料,输出结构化长报告。
一、四张王牌,每一张都炸裂 王牌1️⃣:价格砍到脚踝,还把代码全开源 先放一张对比表,你感受一下: 模型 输入价格(元/百万tokens) 输出价格(元/百万tokens) 是否开源 DeepSeek-V4 API_KEY", base_url="https://api.deepseek.com/v1")response = client.chat.completions.create( model="deepseek-v4
4.1 数学证明与科学推理在要求严密性的高等数学与统计概率学领域,DeepSeek-V4-Pro开启Think Max模式后的表现受到关注。 而DeepSeek-V4-Pro在Think Max模式下,能够将解题方向转化为步骤证明。该研究员指出,V4生成的数学证明在多个案例中具备了成为正式可发表学术论文框架的潜力。 DeepSeek-V4-Pro:获得69分,被标记为未完成(Did Not Finish)。 DeepSeek-V4-Pro(1.6T参数):输入每百万Token 1.74美元,输出每百万Token 3.48美元。 如果将应用的后端从GPT-5.5或Claude 4.7切换至DeepSeek-V4-Pro,单次生成输出的支出约为前者的11.6%(3.48美元 vs 30.00美元)。
探物AI互动时间:你觉得下半年昇腾950发力后,DeepSeek-V4-Pro的价格能打到多少?是腰斩还是直接骨折?欢迎在评论区留下你的神预测!
2026年4月24日,国产大模型领域的领军者深度求索(DeepSeek)正式发布并开源其划时代的 DeepSeek-V4 Preview 系列模型。此次发布不仅是技术上的重大突破,更是一场深刻的商业革命。V4系列将 1M(百万Token)超长上下文能力 直接设为官方服务标配,并以前所未有的 “价格屠夫”姿态 宣布其推理定价:V4-Flash版本在缓存命中时,输入成本低至0.2元/百万Token。这一举措,配合其自研的 双轴稀疏架构、DSA稀疏注意力 以及对 华为昇腾等国产芯片 的深度适配,标志着大模型技术正式从少数巨头的“奢侈品”迈入普惠化、平民化的新纪元。本文将全面、深入地剖析DeepSeek-V4的技术内核、成本结构、应用场景及其对全球AI格局的深远影响。
DeepSeek-V4-Pro:性能比肩顶级闭源这是 V4 系列的满血版本,专为复杂任务和强推理场景设计:Agent 能力史诗级跃升: 在 Agentic Coding 评测中,V4-Pro 已经登顶当前开源模型榜首
今天整个AI圈彻底炸锅了!DeepSeek-V4的横空出世,不仅在技术上实现了全面越级,更在定价策略上投下了一枚震撼弹!
当天,DeepSeek-V4-Pro即登顶HuggingFace开源模型榜,两个“核弹级创新”被津津乐道:一是百万级的超长上下文,但KVcache只有V3.2的10%,被亚马逊工程师盛赞将解决HBM短缺问题
3.1双版本战略DeepSeek-V4-Pro参数:1.6T总参数,49B激活参数。定位:旗舰性能版,面向专业用户和企业。定价:输入1元/百万Token,输出12元/百万Token。