大家可能听说过很多次,DeepSeek V4就要爱了,这一次可能是最靠谱的时间点了。 就在上周,多位知情人士透露,DeepSeek创始人梁文锋在内部已经明确了节奏:下一代旗舰大模型V4,计划于4月下旬正式与公众见面 。 但这一次,DeepSeek V4干了一件牛逼的事情:完全运行在华为昇腾950PR芯片之上,底层代码从CUDA全面转向华为自研的CANN框架 。 这意味着什么? 但其实我觉得 DeepSeek V4 虽然会比 V3 更好,但一定没有大家像之前期待的那么炸裂。 我们应该用正常的眼光来看待更多“平凡、也会犯错的 DeepSeek",哪怕崩溃了,V4 不那么惊艳,也并不影响 DeepSeek 的历史地位,已经它仍然是一家巨牛逼的公司。
DeepSeek V4不只是聊天机器人,它是能真正干活的AI助手。 一、DeepSeek V4是什么? ▪ 2.2 文档分析:从翻阅到秒懂 之前: 看一个技术文档,要花1-2小时 找关键信息,要反复翻页 现在: 直接把整个文档(PDF/Markdown/Word)丢给V4 问它:"这个文档讲了什么? ▪ 2.5 Agent任务:从对话到执行 之前: AI只能回答问题 复杂任务要人手拆解 现在: V4能理解复杂任务 自主拆解成子任务 一步步执行完成 示例: "帮我做这个项目: 1. 调研竞品 2. 写测试用例" 效果: V4会自主规划步骤 每步完成后汇报 最终交付完整方案 真实案例: 某公司用V4做自动化的代码审查流程,从"人工2小时"到"V4 15分钟"。 三、怎么用? 访问 https://chat.deepseek.com 注册 2. 试试简单的任务(写代码、总结文档) 3. 熟悉后尝试复杂任务(Agent流程) 4.
就在大家盼望着 DeepSeek-R2 发布的时期,深度求索在 3 月 24 日晚上悄悄发布了 DeepSeek-V3 模型的升级版本 DeepSeek V3-0324,延续了深度求索的一贯风格,闷声干大事 目录1.DeepSeek V3 版本更新2. DeepSeek V3-0324 评测分析 2.1 核心结论 2.2 通用评测结果 2.3 场景评测结果3.DeepSeek 历史发布轨迹总结4.DeepSeek 未来发布计划01 DeepSeek V3 版本更新DeepSeek-V3 的版本更新 V3-0324 深夜在 AI 开源平台 HuggingFace 低调上线,尽管本次不是大家期待的 V4 或 R2 版本,但还是引起了大批网友的惊叹。 ,在算力受限的情况下,DeepSeek 凭算法优化实现突破,将中美技术差距从1-2年缩至3-6个月,甚至局部反超!
DeepSeek V4:结构性的成本革命 DeepSeek V4的核心突破在于解决了超长上下文大模型在推理阶段的效率瓶颈。 三、开源护城河 vs 商业生态圈 DeepSeek V4:深植开源社区,构建开发者生态 完全开源:采用MIT协议,个人和企业均可免费下载权重并商用,显著降低了技术门槛。 如果希望完全掌控模型并实现私有化部署,DeepSeek V4是明确的选择。 但如果追求极致的性能上限和完备的官方工具链,GPT-5.5依然是难以绕过的标杆。 四、总结 回到最初的问题:GPT-5.5和DeepSeek V4,哪个更好? 数据高度敏感,要求完全合规 ✅ DeepSeek V4系列 完全开源,支持私有化部署且适配华为昇腾芯片,可控性高。
最近,来自杭州的深度求索发布了第二代开源MoE模型DeepSeek-V2,从各项指标来看,都具备了领先水平,无论与开源模型,还是闭源模型对比,都处于第一梯队,是GPT-4, 文心4.0, Qwen1.5 参数规模与性能 DeepSeek-V2包含236B(十亿)参数,每个Token激活2.1B参数,支持长达128K的上下文长度。 中文能力 中文综合能力(AlignBench)开源模型中最强,与 GPT-4-Turbo,文心 4.0 等闭源模型在评测中处于同一梯队。 API价格 DeepSeek-V2的API定价为每百万输入Tokens 1元(0.14美元),每百万输出Tokens 2元(0.28美元),具有竞争力的价格。 模型架构 DeepSeek-V2采用了MoE架构,特别是它对Transformer架构中的自注意力机制进行了创新,提出了MLA(Multi-head Latent Attention)结构,并使用MoE
先聊个被很多人问的问题:R2去哪了?简单说两句,不然评论区又要被刷屏。去年DeepSeek的产品线是分开的:V3干通用的活,R1专门搞推理。 DeepSeek从V3.1开始也走了这条路,V4当然也是混合架构。所以R2这个代号,大概率就这么退休了。就像OpenAI的o3,也成了最后一代独立推理模型,直接被吞进了GPT-5。 这个方向的评测目前还没有特别统一的标准,但各家内部测试和第三方机构的反馈,V4-Pro的Agent表现确实很能打。1.6万亿参数,大了两倍半V4-Pro的总参数量是1.6万亿。 在很多人觉得“参数规模不太重要了”的今天,DeepSeek用V4说了一句:大就是有效,大就是聪明,大就是领先。但“大”也有代价。参数涨了,推理成本就压不住。 DeepSeek作为国内最强开源力量,正在用V4把国产算力生态拉进真正的实战场景。而且MIT许可证全开源,任何人都能拿去用、拿去改、拿去商用。写在最后V4这次发布,没有去年R1那种颠覆式的震撼。
日,DeepSeek 正式发布 V4 系列,同步开源。 "DeepSeek V4 不需要在每一项评测上赢,它只需要足够好,然后让价格做剩下的工作。" 评测项 DeepSeek V4-Pro Claude Opus 4.6 V4 表现 LiveCodeBench 代码生成 93.5% 88.8% ✅ 领先 SWE-Bench 软件工程 55.4% 64.3% 模型 输入(每百万 token) 输出(每百万 token) DeepSeek V4-Flash ¥1 元(缓存命中 ¥0.2 元) ¥2 元 DeepSeek V4-Pro ¥12 元(缓存命中 ¥1 这,才是 DeepSeek V4 最重要的地方。
DeepSeek 更新了V4? 下午5点左右,DeepSeek更新了一个新模型,据说是个小模型,整理能力我个人觉得比3.2是强一点的,但还比不上谷歌的Gemini 3,所以不确定是不是V4。 是不是很神奇,其实离DeepSeek R1发布才1年多,恍如隔世。
图 1:DeepSeek V4 核心要点全景2026 年 4 月 24 日,OpenAI 发布 GPT-5.5 后不到 24 小时,DeepSeek V4 预览版上线了。 翻完 58 页技术报告和十几篇社区评测,我的判断是:V4 不是一次简单的参数堆叠,而是一次围绕长上下文效率的架构重构。 这篇文章,我会从技术架构、评测数据、定价策略三个维度把 V4 拆开来看。最后也会聊聊:它到底算不算王者归来?1. DeepSeek V4 的思路不同。 Vals 综合指数排名第 2,与榜首 Kimi K2.6 仅差 0.07%Arena.ai 评测中,V4 Pro 在代码竞技场排名开源模型第 3 位、综合第 14 位不过 X 上也有不同声音。
中国AI实验室DeepSeek推出了其最新大语言模型DeepSeek V4的两个预览版本,这是对去年V3.2模型及伴随的R1推理模型的备受期待的更新,后者曾席卷AI领域。 该公司表示,DeepSeek V4 Flash和V4 Pro均为混合专家(Mixture-of-Experts)模型,每个模型拥有100万token的上下文窗口——足以让大型代码库或文档用于提示词中。 DeepSeek表示,由于架构改进,这两个模型比DeepSeek V3.2更高效、性能更佳,并且在推理基准上几乎“缩小了”与当前领先模型(无论是开放还是闭源)的差距。 在编程竞赛基准中,DeepSeek表示两款V4模型的性能“与GPT-5.4相当”。 V4 Flash和V4 Pro都仅支持文本,不像许多闭源同行那样支持理解并生成音频、视频和图像。值得注意的是,DeepSeek V4比当今任何前沿模型都便宜得多。
昨天我们介绍了Deepseek V4 Pro预览版正式上线!它的PLC编程能力到底如何? 那对于我们RealPLC而言,必须实时更新下,把这个模型都接入进来。 01 申请DeepSeek API 我们首先到DeepSeek开发者平台,获取到API KEY。这是最重要的一步。 Step1:登录DeepSeek官网。 Step2:进入充值界面,可以按照需求充值。 Step3:选择金额和支付方式: Step4:充值过程中,可能需要认证,这里选择二代居民身份证,填写对应的姓名和身份证的号码,一定要是有效的身份证明哦。 在设置界面里: AI提供方选择DeepSeek,模型任选一个,DeepSeek的API密钥填写刚刚保存备用的KEY。BaseURL填写: 确定好保存更改即可。 然后我们可以用专家场景里面的PID应用来测试下DeepSeek V4 Pro生成西门子PLC程序效果: 我们进入服务器后台可以看到,Job ID已经生成了,说明DeepSeek成功响应: 再回到我们的web
但是,DeepSeek这次模型的升级,从官宣上看,跟这些顶级模型只有2-3个月的差距。但是,对于我们国人来说,基本上也够用了。 最后就是把Claude环境和模型配置下: 上图就是我们申请的DeepSeek API key。具体申请步骤参考: 把DeepSeek V4接入RealPLC,实现PLC自动编程! ="<your DeepSeek API Key>" $env:ANTHROPIC_MODEL="deepseek-v4-pro[1m]" $env:ANTHROPIC_DEFAULT_OPUS_MODEL ="deepseek-v4-flash" $env:CLAUDE_CODE_SUBAGENT_MODEL="deepseek-v4-flash" $env:CLAUDE_CODE_EFFORT_LEVEL 我们为了确认链接成功,可以问下它是谁,用的是哪家大模型,确定回复为deepseek-v4-pro。那么,这个时候你就可以愉快地使用这个CC和Deepseek V4 Pro开启AI编程对话之旅了。
DeepSeek-V4-Pro:性能比肩顶级闭源这是 V4 系列的满血版本,专为复杂任务和强推理场景设计:Agent 能力史诗级跃升: 在 Agentic Coding 评测中,V4-Pro 已经登顶当前开源模型榜首 数理与推理霸榜: 在数学、STEM、竞赛型代码等硬核测评中,V4-Pro 超越了当前所有已公开评测的开源模型,跻身世界第一梯队。 2. 2. 模型名称变更调用时,只需将 model 参数修改为:deepseek-v4-prodeepseek-v4-flash3. 集合技术报告 (PDF): DeepSeek_V4.pdf结语从 V2 的 MoE 架构惊艳亮相,到 V3 的全面强化,再到今天 V4 带来的百万上下文与顶级 Agent 能力,DeepSeek 一直在践行其
V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。 现在登录官网什么,就已经是 V4了。 根据官方的报道,DeepSeek-V4-Pro:性能比肩顶级闭源模型,什么叫做比肩顶级闭源模型。 大家看看下面的对比图。 DeepSeek-V4 和 DeepSeek-V3.2 的 2、Agent 能力专项优化 针对Claude Code、OpenCode、CodeBuddy等主流Agent产品进行了深度优化,在代码任务 内部评测显示,其使用体验优于Sonnet 4.5,交付质量接近Opus 4.6 3、在数学、STEM(科学、技术、工程、数学)及竞赛级代码等推理测评中,均超越所有已公开评测的开源模型,达到世界顶级水平。 4、V4-Pro版本的世界知识储备,已大幅领先其他开源模型,仅次于顶尖闭源模型Gemini-Pro-3.1 5、深度适配华为昇腾算力:V4将运行在华为最新的昇腾(Ascend)芯片上。
均已更新APIapi.deepseek.commodel参数改为deepseek-v4-pro或deepseek-v4-flash与前代V3系列相比,V4的核心变化可以概括为"三个数量级跃升":1.上下文长度 DeepSeek-V4-Pro在AgenticCoding评测中取得了开源模型最佳成绩。 在数学、STEM和竞赛型代码评测中,V4-Pro超越了所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的成绩。 高性价比路线的取舍逻辑DeepSeek-V4-Flash是V4系列的经济版,它在推理能力上接近V4-Pro,但世界知识储备稍弱,换取的是更快的响应速度和更低的API成本。 结合V4引入的Engram记忆架构(据多方报道,这是V4的另一项架构创新),模型能在token维度进行高效压缩,将长上下文中的冗余信息浓缩为紧凑的表征,进一步降低实际计算开销。这对开发者意味着什么?
DeepSeek V4 选择了一条更陡峭的上山路。 第三章 DeepSeek V2:效率革命,MoE 首次登场2024 年 5 月发布,这是 DeepSeek 技术路线最关键的一次转折。 模型按大小分为两个版本:维度DeepSeek V4 Pro (旗舰版)DeepSeek V4 Flash (轻量版)总参数1.6T284B激活参数49B13B上下文长度1M Token (约 75 万字 第八章 性能全景:开源模型登顶全球第一梯队8.1 代码能力 LiveCodeBench:V4 Pro 取得 93.5 分,超越 Gemini 3.1 Pro、Claude Opus 4.6,领跑所有已评测模型 ,V4 Pro 已达到开源模型最佳水平 内部员工已全面使用 V4 替代 Claude,评测反馈使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但仍与 Opus 4.6
AI圈近期的热度,几乎全被DeepSeek V4的相关猜测承包了。 恰逢DeepSeek-R1发布一周年,官方GitHub代码库中突然曝光的“MODEL1”标识,瞬间点燃全网讨论热情。 2月中旬的农历新年前后。 1月21日,环球网援引ITPro报道称,DeepSeek计划于2月中旬农历新年期间推出这款旗舰模型。 ●代码层面: 与此同时,代码层面也给出了呼应。 科技思维报道称,V4在Codeforces编程评测中获得2441分,超过96.3%的人类程序员,算法优化准确率比GPT-5高出15%,错误修复效率是Claude的1.8倍,可处理数十万token上下文, 无论你是想微调行业咨询工具、报告生成器,又或是想解放双手的加班党、定制专属 AI 的科技迷,2 月中旬都可以蹲一波 DeepSeek V4 首发,再用 LLaMA-Factory Online 解锁定制新玩法
Datawhale干货 作者:牧小熊,Datawhale成员 前言:大模型评测是一个系统工程,本文希望通过比较通俗的方式给大家直观感受大模型微调后的效果,相关是思路想法旨在起到抛砖引玉的效果,如果学习者对大模型评测有深厚的兴趣 Deepseek 模型以及数据集均来源于魔塔社区 medical-o1-reasoning-SFT。 1. 训练参数配置 training_args = TrainingArguments( output_dir=output_path, per_device_train_batch_size=2, 可以看到经过简单的微调,模型的 LOSS 值是有降低,说明 Deepseek 模型是对训练集的数据集有拟合的。 2.直观比较模型生成 模型微调完,生成的内容效果如何,怎么进行比较呢? 本文的目的旨在对「Deepseek 微调文章」后续工作的延伸,也期望通过这种比较初级的方法帮助学习者了解微调与模型评测,起到抛砖引玉的效果,如果学习者对大模型评测有深厚的兴趣,可以从不同的角度进行学习。
2024年初,DeepSeek LLM(V1)首次亮相,7B和67B双版本直接超越LLaMA-2 70B,用2T tokens的训练量,证明了中国团队在大模型领域的硬实力;同年5月,V2带来MoE架构重大突破 要知道,V3已经能在多项评测中媲美GPT-4o和Claude-3.5-Sonnet,而V4如果在架构上实现突破,加上可能进一步提升的训练数据量(预计远超V3的14.8T tokens),其在知识储备、推理能力 突破2:百万级上下文,彻底解决“长文本痛点” 这可能是V4最受期待的一个升级点。 从V1的4K上下文,到V2、V3的128K,DeepSeek一直在攻克长文本处理难题,而根据爆料,V4将直接冲刺 百万级token上下文 ——这意味着什么? 结合2026年2月DeepSeek官方透露的“V4即将发布”,以及近期的爆料热度,大概率会在2026年上半年亮相,但具体时间仍未确定。 会继续开源吗?
在编码、研究、数据分析方面表现出色,在SWE-bench等专业评测中超越Claude Opus 4.7和Gemini 3.1 Pro。API于4月24日开放,价格翻倍。 2. DeepSeek发布V4系列模型 DeepSeek发布V4系列模型,包括V4-Pro(1.6万亿参数,490亿活跃参数)和V4-Flash(2840亿参数,130亿活跃参数),均支持100万token上下文窗口 V4-Pro在Agentic Coding和知识评测中表现卓越,仅落后于Gemini-3.1-Pro。模型采用新型注意力机制和稀疏注意力技术,大幅降低长上下文计算成本。 这是DeepSeek成立三年来首次接受外部投资,主要目的为员工期权定价和稳定核心团队。DeepSeek由幻方量化创始人梁文锋于2023年创立,此前一直坚持不接受外部融资。 Anthropic Claude Opus 4.7上线Bedrock,DeepSeek发布V4系列,Kimi K2.6支持300子代理协同,模型能力持续突破。