首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • DeepSeek-V4首发即支持,ZStack AIOS 私有化部署即刻可用

    DeepSeek-V4:效率与能力的双重跃升DeepSeek-V4 系列包括 DeepSeek-V4-Pro(1.6T 总参数 / 49B 激活) 与 DeepSeek-V4-Flash(284B 总参数 AIOS 率先完成私有化适配,全面支持国产化算力ZStack AIOS 现已全面支持 DeepSeek-V4-Pro 与 DeepSeek-V4-Flash 在自有数据中心的私有化部署。 三步上手:以 DeepSeek-V4-Flash 为例DeepSeek-V4-Flash 每次推理仅需激活 13B 参数,推理效率较高,是在有限 GPU 资源下验证 V4 系列能力的合适起点。 在 ModelScope 上找到 DeepSeek-V4-Flash 的 Model ID并填入,点击下载,系统将自动根据 Model ID 拉取模型文件至平台模型仓库。

    12800编辑于 2026-04-24
  • 来自专栏大模型系列

    打造你的百万上下文AI智能体:OpenClaw深度集成DeepSeek V4全攻略—— 解锁 DeepSeek-V4 的百万上下文与 MoE 架构

    DeepSeek-V4-Flash:经济版,总参数量为284B,激活参数为13B。 模型名称(ModelName):旗舰版:deepseek-v4-pro经济版:deepseek-v4-flash这些信息是后续配置的核心。 -flash设置别名:展开代码语言:BashAI代码解释openclawconfigset'models.models.deepseek/deepseek-v4-flash'--json'{"alias openclawconfigset'agents.defaults.model.primary'--string'deepseek/deepseek-v4-pro'如果您更倾向于使用经济版,可以替换为deepseek/deepseek-v4 DeepSeek-V4-Flash:适用于日常对话、内容创作、普通编程辅助等场景。成本极低(根据官方信息,输出定价约为2元人民币/百万token),性价比极高。

    1.5K50编辑于 2026-04-24
  • 来自专栏大模型系列

    从零部署:Hermes + DeepSeek V4 打造企业级智能助手(附完整代码)

    这次发布包含了两个主要版本:DeepSeek-V4-Pro:旗舰版本总参数量:1.6万亿(1.6T)激活参数:490亿(49B)适用于复杂推理、长文本分析等高性能场景DeepSeek-V4-Flash: 2.1.3 充值与配额管理DeepSeek V4 采用按量计费模式:DeepSeek-V4-Flash:输入:¥0.2/百万 tokens输出:¥0.8/百万 tokensDeepSeek-V4-Pro deepseek-v4(自定义名称)Base URL:https://api.deepseek.com/v1API Key:您在 2.1.2 节中获取的 API KeyDefault Model:选择 deepseek-v4 # Available models: deepseek-v4-flash, deepseek-v4-pro 您也可以直接在 Hermes pro" reason: "代码生成需要更强的推理能力" - condition: "task_type == 'simple_qa'" provider: "deepseek-v4

    96671编辑于 2026-04-24
  • DeepSeek-V4 震撼发布:迈入 1M 百万上下文普惠时代,Agent 与代码能力比肩顶尖闭源

    DeepSeek-V4-Flash:高并发与高性价比的首选相较于 Pro 版本,Flash 版本的参数和激活量更小,专为速度和经济性而生:推理能力不减: 虽然在世界知识储备上略逊一筹,但 Flash 依然保留了接近 当前过渡期内,这两个旧名称将分别自动指向 deepseek-v4-flash 的非思考模式与思考模式。建议开发者尽快修改代码中的模型路由。5.

    1.1K90编辑于 2026-04-24
  • DeepSeek-V4,终于来了!这款「偏科生」如何凭四张王牌炸场?

    1️⃣:价格砍到脚踝,还把代码全开源 先放一张对比表,你感受一下: 模型 输入价格(元/百万tokens) 输出价格(元/百万tokens) 是否开源 DeepSeek-V4-Pro 4 24 ✅ 开源 DeepSeek-V4 https://api.deepseek.com/v1")response = client.chat.completions.create( model="deepseek-v4-pro",# 或 "deepseek-v4

    1.3K20编辑于 2026-04-24
  • 模型多版本平滑切换,​D​М‌X​Α‌РΙ 下的 DeepSeek-v4 流量分发

    统一封装后,后续切换deepseek-v4-flash与deepseek-v4-pro只需要改模型参数,不需要重写请求逻辑。 在这种任务里,建议采用两层模型策略:deepseek-v4-flash负责高吞吐抽取和字段规范化。deepseek-v4-pro只在字段冲突、条款歧义、金额与期限相互矛盾时介入复核。 ,{"role":"user","content":prompt},]returncall_deepseek_v4(messages,model="deepseek-v4-flash")真正的工程重点不在这几行代码 可以先由deepseek-v4-flash完成预处理和分类,再把需要深推理的样本路由给Pro。这样不仅省成本,还能减轻高峰时段的整体延迟。 ,{"role":"user","content":f"拆解调研主题:{topic}"}],model="deepseek-v4-flash")all_data=self.search_and_filter

    3000编辑于 2026-04-26
  • 来自专栏低代码平台

    DeepSeek V4 来了!超越 Claude Sonnet 4.5,赶紧对接 Claude Code 体验一把

    DEEPSEEK_API_KEY}","API_TIMEOUT_MS":"3000000","ANTHROPIC_MODEL":"deepseek-v4-pro","ANTHROPIC_SMALL_FAST_MODEL":"deepseek-v4 "deepseek-v4-pro","ANTHROPIC_DEFAULT_OPUS_MODEL":"deepseek-v4-pro","ANTHROPIC_DEFAULT_HAIKU_MODEL":"deepseek-v4

    49230编辑于 2026-04-24
  • Python 脚本批量调用 DeepSeek-V4,集成 ​D​М‌X​Α‌РΙ 优化吞吐

    调用可以稳定挂接到CI、任务队列、消息总线和内部服务;第二,请求具备可观测性,超时、重试、状态码、请求标识、耗时分布、失败样本都能进入日志和监控;第三,接口级联成为可能,对外维持统一入口,对内根据任务类型把请求路由给deepseek-v4 defextract_contract_data(raw_text):response=client.chat.completions.create(model="deepseek-v4-flash", classResearchAgent:defexecute(self,topic):sub_queries=call_deepseek_v4(f"拆解调研主题:{topic}",model="deepseek-v4 今天你接的是deepseek-v4-flash与deepseek-v4-pro,明天如果出现新的推理模型、视觉模型或特定行业模型,只要协议层保持一致,业务代码不用整体重写。

    5010编辑于 2026-04-25
  • 来自专栏大模型系列

    0.2元百万Token 的万亿AI:DeepSeek-V4 开源,开启超长上下文普惠时代——DeepSeek-V4-Pro|DeepSeek-V4-Flash

    DeepSeek-V4-Flash定位:高性价比版,面向广大开发者、中小企业和日常应用。架构:284B总参数,13B激活参数。

    37540编辑于 2026-04-24
  • 来自专栏低代码平台

    Claude Code + DeepSeek V4-Pro 真实评测:除了贵,没别的毛病

    DEEPSEEK_API_KEY}","API_TIMEOUT_MS":"3000000","ANTHROPIC_MODEL":"deepseek-v4-pro","ANTHROPIC_SMALL_FAST_MODEL":"deepseek-v4 "deepseek-v4-pro","ANTHROPIC_DEFAULT_OPUS_MODEL":"deepseek-v4-pro","ANTHROPIC_DEFAULT_HAIKU_MODEL":"deepseek-v4

    43100编辑于 2026-04-24
  • DeepSeek-V4架构与性能评估报告:基于英法德多语言技术社区数据的全景审查

    DeepSeek-V4-Flash:轻量级伴生模型,总参数量为2840亿(284B),激活参数为130亿(13B)。该模型面向高并发、低延迟的API推理场景,适合初创企业和独立开发者使用。 DeepSeek-V4-Flash:获得78分(Tier B),耗费约0.01美元API费用,在不到3分钟内完成了逻辑构建。它利用会话重放机制处理了多轮历史状态,并调用了RubyLLM API。 无论是使用deepseek-v4-pro还是deepseek-v4-flash(甚至包括即将被弃用的旧别名deepseek-chat和deepseek-reasoner),只要开启了思维模式并启用了多步工具调用 7.2 API定价策略DeepSeek-V4官方API公开报价如下:DeepSeek-V4-Flash(284B参数,百万级上下文):输入每百万Token 0.14美元,输出每百万Token 0.28美元

    2100编辑于 2026-04-26
  • 来自专栏大模型系列

    从128K到1M:DeepSeek-V4(Pro|Flash )架构革命与国产大模型的高光时刻—超长上下文、双轴稀疏架构、万亿参数、开源免费、华为昇腾等国产芯片

    DeepSeek-V4-Flash参数:284B总参数,13B激活参数。定位:高性价比版,面向广大开发者和中小企业。定价:输入0.2元/百万Token(缓存命中时),输出2元/百万Token。

    41140编辑于 2026-04-24
  • DeepSeek-V4模型架构与成本分析

    更极致的近零定价属于DeepSeek-V4-Flash(非Pro模型)。Flash定价为缓存未命中时每百万输入token 0.14美元、每百万输出token 0.28美元,合计0.42美元。

    14610编辑于 2026-04-25
领券