首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Java面试教程

    DeepSeek V4 真要来了!

    大家可能听说过很多次,DeepSeek V4就要爱了,这一次可能是最靠谱的时间点了。 就在上周,多位知情人士透露,DeepSeek创始人梁文锋在内部已经明确了节奏:下一代旗舰大模型V4,计划于4月下旬正式与公众见面 。 但这一次,DeepSeek V4干了一件牛逼的事情:完全运行在华为昇腾950PR芯片之上,底层代码从CUDA全面转向华为自研的CANN框架 。 这意味着什么? 但其实我觉得 DeepSeek V4 虽然会比 V3 更好,但一定没有大家像之前期待的那么炸裂。 我们应该用正常的眼光来看待更多“平凡、也会犯错的 DeepSeek",哪怕崩溃了,V4 不那么惊艳,也并不影响 DeepSeek 的历史地位,已经它仍然是一家巨牛逼的公司。

    32920编辑于 2026-04-20
  • DeepSeek V4是什么?能做什么?

    DeepSeek V4不只是聊天机器人,它是能真正干活的AI助手。 一、DeepSeek V4是什么? 2026年4月24日,DeepSeek发布V4预览版,两个版本: V4-Pro:完整版,Agent能力强,推理性能顶级 V4-Flash:轻量版,速度快,成本低 核心能力: 百万字上下文:一次能读1M 4 代码能力: V4-Pro接近Claude 4 Sonnet 长文本处理: V4(1M)> Claude(200K) 成本: V4更低 中文优化: V4更好 ▪ 5.3 vs DeepSeek V3 Flash:成本低,适合高频调用 V4-Pro:成本高,适合复杂任务 建议先用Flash试,再按需切换到Pro 七、总结 DeepSeek V4不只是"更会聊天"的AI,它是能真正干活的助手。 需要更高级功能,升级到Pro版 一句话带走: DeepSeek V4不是聊天机器人,是你的AI工作伙伴。

    11710编辑于 2026-04-28
  • 来自专栏苏三说技术

    GPT5.5 和 DeepSeek V4,哪个更好?

    DeepSeek V4:结构性的成本革命 DeepSeek V4的核心突破在于解决了超长上下文大模型在推理阶段的效率瓶颈。 三、开源护城河 vs 商业生态圈 DeepSeek V4:深植开源社区,构建开发者生态 完全开源:采用MIT协议,个人和企业均可免费下载权重并商用,显著降低了技术门槛。 如果希望完全掌控模型并实现私有化部署,DeepSeek V4是明确的选择。 但如果追求极致的性能上限和完备的官方工具链,GPT-5.5依然是难以绕过的标杆。 四、总结 回到最初的问题:GPT-5.5和DeepSeek V4,哪个更好? 数据高度敏感,要求完全合规 ✅ DeepSeek V4系列 完全开源,支持私有化部署且适配华为昇腾芯片,可控性高。

    3210编辑于 2026-04-28
  • 来自专栏热度文章

    别卷了,DeepSeek V4 来交卷了

    DeepSeek从V3.1开始也走了这条路,V4当然也是混合架构。所以R2这个代号,大概率就这么退休了。就像OpenAI的o3,也成了最后一代独立推理模型,直接被吞进了GPT-5。 这个方向的评测目前还没有特别统一的标准,但各家内部测试和第三方机构的反馈,V4-Pro的Agent表现确实很能打。1.6万亿参数,大了两倍半V4-Pro的总参数量是1.6万亿。 在很多人觉得“参数规模不太重要了”的今天,DeepSeekV4说了一句:大就是有效,大就是聪明,大就是领先。但“大”也有代价。参数涨了,推理成本就压不住。 比架构更值得关注的:国产算力V4发布当天,华为云就宣布昇腾超节点完成全栈适配。这背后工程量有多大?DeepSeek需要把大量原本跑在NVIDIAGPU上的CUDA代码,迁移到华为的CANN架构上。 DeepSeek作为国内最强开源力量,正在用V4把国产算力生态拉进真正的实战场景。而且MIT许可证全开源,任何人都能拿去用、拿去改、拿去商用。写在最后V4这次发布,没有去年R1那种颠覆式的震撼。

    27531编辑于 2026-04-24
  • 来自专栏石云升

    DeepSeek 新版本(V4?),内附升级方法

    DeepSeek 更新了V4? 下午5点左右,DeepSeek更新了一个新模型,据说是个小模型,整理能力我个人觉得比3.2是强一点的,但还比不上谷歌的Gemini 3,所以不确定是不是V4。 是不是很神奇,其实离DeepSeek R1发布才1年多,恍如隔世。

    1.2K10编辑于 2026-03-17
  • DeepSeek V4模型技术参数与性能分析

    中国AI实验室DeepSeek推出了其最新大语言模型DeepSeek V4的两个预览版本,这是对去年V3.2模型及伴随的R1推理模型的备受期待的更新,后者曾席卷AI领域。 该公司表示,DeepSeek V4 Flash和V4 Pro均为混合专家(Mixture-of-Experts)模型,每个模型拥有100万token的上下文窗口——足以让大型代码库或文档用于提示词中。 较小的V4 Flash模型有2840亿参数(130亿激活)。 在编程竞赛基准中,DeepSeek表示两款V4模型的性能“与GPT-5.4相当”。 V4 Flash和V4 Pro都仅支持文本,不像许多闭源同行那样支持理解并生成音频、视频和图像。值得注意的是,DeepSeek V4比当今任何前沿模型都便宜得多。

    32010编辑于 2026-04-25
  • 来自专栏Hello工控

    DeepSeek V4接入RealPLC,实现PLC自动编程!

    昨天我们介绍了Deepseek V4 Pro预览版正式上线!它的PLC编程能力到底如何? 那对于我们RealPLC而言,必须实时更新下,把这个模型都接入进来。 01 申请DeepSeek API 我们首先到DeepSeek开发者平台,获取到API KEY。这是最重要的一步。 Step1:登录DeepSeek官网。 Step3:选择金额和支付方式: Step4:充值过程中,可能需要认证,这里选择二代居民身份证,填写对应的姓名和身份证的号码,一定要是有效的身份证明哦。号码和姓名要完全对应。 在设置界面里: AI提供方选择DeepSeek,模型任选一个,DeepSeek的API密钥填写刚刚保存备用的KEY。BaseURL填写: 确定好保存更改即可。 然后我们可以用专家场景里面的PID应用来测试下DeepSeek V4 Pro生成西门子PLC程序效果: 我们进入服务器后台可以看到,Job ID已经生成了,说明DeepSeek成功响应: 再回到我们的web

    4410编辑于 2026-04-28
  • 来自专栏Hello工控

    如何在Claude Code里面用上DeepSeek V4 Pro模型?

    最后就是把Claude环境和模型配置下: 上图就是我们申请的DeepSeek API key。具体申请步骤参考: 把DeepSeek V4接入RealPLC,实现PLC自动编程! ="deepseek-v4-pro[1m]" $env:ANTHROPIC_DEFAULT_SONNET_MODEL="deepseek-v4-pro[1m]" $env:ANTHROPIC_DEFAULT_HAIKU_MODEL ="deepseek-v4-flash" $env:CLAUDE_CODE_SUBAGENT_MODEL="deepseek-v4-flash" $env:CLAUDE_CODE_EFFORT_LEVEL ":"deepseek-v4-pro[1m]", "ANTHROPIC_DEFAULT_HAIKU_MODEL":"deepseek-v4-flash", "CLAUDE_CODE_SUBAGENT_MODEL 我们为了确认链接成功,可以问下它是谁,用的是哪家大模型,确定回复为deepseek-v4-pro。那么,这个时候你就可以愉快地使用这个CC和Deepseek V4 Pro开启AI编程对话之旅了。

    24500编辑于 2026-04-28
  • 来自专栏Sign

    DOLO v4

    和3.7的区别是,整个流程通了,增加过场动画,技能切换,卡片消费,地形分布,以及角色信息显示。 另外特效上,引入的粒子系统和拖尾,效果不错。 以前对于这些依赖引擎(外力)的东西其实是有点抗拒的。就好像如果接受了这些『外力』,那这个游戏就不是自己做的一样。 那种感觉,有点像在菜鸟眼里,大师之所以画的好其实是他的作画工具好,只要自己挤出一点时间,买上他一样的工具,也能画的和他一样好…… 工具始终只是工具,或者说其实是『增幅器』,实力1的人拿到x10的工具,产出的是1x10的作品,而实力10的人拿到x10的工

    816120发布于 2018-04-18
  • DeepSeek V4 刚刚发布:API 定价、配置与最佳实践完全指南

    新一代模型发布DeepSeekV4正式发布并开源,带来两个版本:模型参数规模定位DeepSeek-V4-Pro1.6T总参数/49B激活参数性能对标顶级闭源模型DeepSeek-V4-Flash284B -3.1-Pro推理能力:数学/STEM/编程全面领先,对标顶级闭源模型DeepSeek-V4-Flash:推理能力接近V4-Pro简单Agent任务表现相当更快响应、更经济定价Thinking模式两个模型都支持双模式切换 定价详解DeepSeekV4定价模型输入(缓存命中)输入(缓存未命中)输出deepseek-v4-flash$0.028/M$0.14/M$0.28/Mdeepseek-v4-pro$0.145/M$1.74 /M$3.48/M限时优惠:deepseek-v4-pro当前享受75%折扣,优惠截至2026/05/0515:59UTC。 "),base_url="https://api.deepseek.com")response=client.chat.completions.create(model="deepseek-v4-flash

    2.8K290编辑于 2026-04-27
  • DeepSeek V4全网猜测汇总:四大焦点浮出水面

    AI圈近期的热度,几乎全被DeepSeek V4的相关猜测承包了。 恰逢DeepSeek-R1发布一周年,官方GitHub代码库中突然曝光的“MODEL1”标识,瞬间点燃全网讨论热情。 今天我们梳理全网真实信息,聚焦大家最关心的四大核心焦点,看看各方都在热议什么~ 焦点一:发布时间——春节前后成共识,外媒与代码线索相互印证 ● 发布时间:关于DeepSeek V4的发布时间,全网猜测高度集中在 科技思维报道称,V4在Codeforces编程评测中获得2441分,超过96.3%的人类程序员,算法优化准确率比GPT-5高出15%,错误修复效率是Claude的1.8倍,可处理数十万token上下文, ● 业内普遍认为,V4若延续开源路线,将进一步强化这一优势。 春节的烟花要来了,DeepSeek V4 也要点燃中国 AI 的新引擎,不管是想让 AI 精准匹配品牌风格的创作者,还是需要适配行业术语的职场人,如果想通过微调让 V4 变成 “专属定制款”,可以看看

    1.3K20编辑于 2026-01-30
  • 来自专栏Alter聊科技

    DeepSeek V4炸场背后:硅谷在“造墙”,中国在“修路”

    4月24日上午,姗姗来迟的DeepSeekV4终于显露真身。 当天,DeepSeek-V4-Pro即登顶HuggingFace开源模型榜,两个“核弹级创新”被津津乐道:一是百万级的超长上下文,但KVcache只有V3.2的10%,被亚马逊工程师盛赞将解决HBM短缺问题 DeepSeek在训练V4大模型时,同样采用了被验证过的Muon优化器。需要说明的是,开源大模型的“协同进化”并未陷入同质化,正在走向一条“和而不同”的道路。 比如DeepSeek-V4聚焦基础模型的核心能力攻坚,进一步筑牢了全球开源大模型的性能天花板,为全行业提供了性能比肩闭源旗舰的基础底座;KimiK2.6深耕Agent工程化落地,解决了大模型长程自主执行的痛点 2025年8月发布的GPT-5,训练成本超过5亿美元;同期的KimiK2Thinking,训练成本约460万美元;DeepSeek没有公布V4系列模型的训练成本,但V3模型仅花费了557.6万美元...

    18010编辑于 2026-04-26
  • DeepSeek V4 API 完全指南:性能实测、成本测算与接入方案(2026)

    上周 DeepSeek 官宣 V4 定档,我第一时间就盯上了。原因很简单——我手头有个日均 10 万次调用的知识库项目,之前跑在 DeepSeek V3 上,效果还行但复杂推理经常翻车。 DeepSeek V4DeepSeek 于 2026 年发布的新一代开源大语言模型,万亿参数 MoE(混合专家)架构,激活参数约 370B,代码生成、复杂推理和长上下文理解比 V3 强了一大截。 DeepSeek 选在这个放出 V4,摆明了要在开源阵营里抢回话语权。 DeepSeek 一贯走低价路线,V4 也没让人失望:计费项DeepSeek V4 官方GPT-5Claude Opus 4.6Gemini 3 ProAPI 聚合平台 聚合 (DeepSeek V4) V4 的 API 接口和 V3 完全一致,model 参数从 deepseek-v3 改成 deepseek-v4 就行,SDK 不用换。Q2:V4 的 256K 上下文是真的能用满吗?

    19.1K300编辑于 2026-04-23
  • 来自专栏大卫李的技术分享

    Openshift V4 is coming

    又是一个新的开源项目——CRC 官方宣称从openshift v4开始,由CRC这个工具提供provision服务。 土豪同学请自便,其他童鞋可以一起看laptop部署方案 单机联网部署Openshift v4 保证你的机器有以下可用资源 4C 8G 35GB 下载对应操作系统的CRC二进制文件 可以到这里下载CRC 可执行文件,以macOS为例,下载地址如下所示: https://mirror.openshift.com/pub/openshift-v4/clients/crc/latest/crc-macos-amd64 运行crc start start命令就是启动特定的虚拟化服务,并部署openshift v4平台组件。运行效果如下所示: > crc-macos-1.0.0-beta.3-amd64 .

    1K10发布于 2020-05-11
  • DeepSeek V4已适配华为AI芯片,阿里字节腾讯已提前下单

    44日消息,根据外媒《The Information》报导,中国人工智能(AI)企业DeepSeek即将推出的新一代大语言模型V4,并已基于包括华为在内的最新国产AI芯片进行了优化。 /HiF8/MXFP4/HiF4等数据格式,互联带宽为2TB/s。 报道指出,DeepSeek-V4预计将于未来数周内发布。 相较于过往AI模型开发通常会与美国芯片大厂合作进行性能优化,DeepSeek此次并未向美系AI芯片供应商开放测试,而是优先提供本土芯片厂参与。 此外,该公司亦同步开发两款V4衍生版本,分别针对不同应用场景优化,并同样以中国芯片为基础设计。 市场之所以高度关注DeepSeek-V4,主要来自其前代产品的影响力。

    1.2K30编辑于 2026-04-10
  • 如何看待网传 DeepSeek V4 即将发布并提出「去CUDA化」?

    ​我这两天也在看这个消息,说实话一开始看到“DeepSeek V4 + 去CUDA化”,我第一反应不是模型强不强,而是:这事如果是真的,影响其实比模型性能更大。 所以这次网传DeepSeek V4要“去CUDA化”,本质就是在做一件事: 试图绕开英伟达这条路,自己建立一套能跑通的体系而从现在流出来的信息看,它不是随便说说的那种,而是已经在做实际适配,比如和国产芯片 而DeepSeek这一波,如果真的能在国产芯片上跑通,并且性能不差,那意味着: 算力生态可能开始分裂这对整个行业是个大变量。 说白了就是: 简单任务用便宜模型,复杂任务再上高性能模型这种思路其实和“Token工厂”或者DeepSeek现在在做的事情,本质是一样的——都是在优化成本结构。 最后说一下我的整体看法:DeepSeek V4 本身:值得期待,但还要看真实效果去CUDA化:如果是真的,是战略级变化行业影响:短期炒作,中长期可能改格局一句话总结我自己的感觉: 这不是一次模型升级,更像是在试图改游戏规则如果它真跑通了

    30420编辑于 2026-04-20
  • 来自专栏Mybatis学习

    YOLO V4论文解读

    YOLO V4论文解读 一、YOLOV3回顾 二、YOLOV4中 三、Bag of freebies 数据扩充: 模拟对象遮挡: 结合多幅图像进行数据扩充: 解决类别不平衡: label smoothing module: 3、feature integration:(特征集成) 4、activation function: 5、post-processing method: YOLOv4 - use: 五 11、 Random training shapes (随机多尺度的训练) 12、 Mish activation 13、 CSP 14、 SPP 15、 SAM-block 16、 PAN YOLO V4 CIoU_ loss(yolov4采用的) Yolov4-use: 1、CutMix and Mosaic data augmentation. 2、DropBlock regularization. 好了上面就是对YOLOv4的一些新的改进的解读,具体参考了b站的一位小伙伴,后面我将继续写下yolov4的代码具体实现。。。真的好难,加油!

    1.1K30发布于 2021-06-21
  • DeepSeek V4 预览版本上线并同步开源,哪些亮点值得关注?

    DeepSeek V4 预览版的上线,不仅仅是一个版本号的跳动,我觉得它更像是大模型开源领域的一个“分水岭”。 但 DeepSeek 这次 V4 的技术报告,我是一行一行啃下来的,这里面透露出的工程思路,确实有点东西。 DeepSeek V4 给我的感觉是它终于“开窍”了。在 V4 发布之前,市面上绝大多数模型写代码,本质上还是“填空题”模式。你给一段描述,它补全代码。 但 V4 在 Agentic Coding 方面的表现,已经开始具备“架构师”的味道了。DeepSeek 这次在技术报告里提到,他们在内部已经全面转向 V4 进行开发。这其实是一个非常有力的背书。 去注册个账号试试,反正免费: 反正现在 DeepSeek V4 的接口都已经上架了,薅一下一折羊毛,把你的业务模型升级到 V4,没理由不省这一笔钱。

    39830编辑于 2026-04-25
  • BUG Report: DeepSeek V4 思考模式与工具调用兼容性问题

    一、问题描述使用WorkBuddy连接DeepSeekV4系列模型(deepseek-v4-pro/deepseek-v4-flash)时,当AI响应涉及工具调用(tool_calls),WorkBuddy 错误现象对话在第一轮正常,AI正确触发工具调用并返回结果后,后续轮次立即报错错误码:HTTP400BadRequest不涉及工具调用的纯文本对话不受影响旧模型deepseek-chat/deepseek-reasoner 三、复现步骤在WorkBuddy中配置自定义模型,API地址指向DeepSeek官方API选择模型ID为deepseek-v4-pro或deepseek-v4-flash发起一段需要工具调用的对话(例如 旧模型(deepseek-chat/deepseek-reasoner)将于2026年7月24日正式下线,届时所有用户将被强制迁移到V4系列,此BUG将影响全部DeepSeek用户。 七、参考信息DeepSeekV4发布日期:2026-04-24V4系列模型:deepseek-v4-pro,deepseek-v4-flash旧模型下线日期:2026-07-24相关协议字段:reasoning_content

    1.3K10编辑于 2026-04-26
  • 来自专栏大模型系列

    华为昇腾950+DeepSeek V4王炸组合!雷军式定价屠夫登场,小米模式席卷AI界—DeepSeek-V4-Pro|DeepSeek-V4

    DeepSeek-V4的横空出世,不仅在技术上实现了全面越级,更在定价策略上投下了一枚震撼弹!128K上下文?那已经是上个时代的标配。V4直接把1M超长上下文拉满,让百万字级别的文档处理变得轻而易举。 就在刚刚,DeepSeek官方公布了V4的API价格表。我拿到数据后,足足愣了半分钟,心里只有一个念头:这哪是定价,这简直是掀桌子! DeepSeek这是要学当年的小米,用极致性价比,把大模型市场里那些虚高的溢价,彻底打回原形! 但DeepSeek此举,等于向全世界宣告:V4不仅能在昇腾芯片上完美运行,而且即将构建起基于国产硬件的超大规模算力集群!从模型到芯片,软硬一体的全栈国产化闭环正在形成。 当友商还在为如何优化成本焦头烂额时,DeepSeek已经手握一张能让价格再打对折的王牌。这仗,还怎么打?

    30140编辑于 2026-04-24
领券