在 AI 大模型竞争日趋激烈的 2026 年,智谱 AI 推出的GLM-5无疑成为了行业焦点,成功献礼马年春节。 技术架构:站在巨人肩膀上的创新 GLM-5 的技术架构体现了"站在巨人肩膀上"的明智选择。 评估集合中,GLM-5 在前端、后端、长程任务等编程开发任务上显著超越 GLM-4.7。 如何白嫖体验 GLM-5 打开 VS Code 里的 Kilo Code,模型选择 GLM-5 free,我已经白嫖体验上了,目前为止体感不错,等待深入白嫖体验。 参考资料 [1] GLM-5官方文档: https://docs.bigmodel.cn/cn/guide/models/text/glm-5
直接shell命令openclaw models set <provider/model>
API_TIMEOUT_MS": "3000000", "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1", "ANTHROPIC_MODEL": "glm 问题一开始我以为要配置成 https://api.edgefn.net/v1/chat/completions 导致在对话时出现问题:There's an issue with the selected model (glm
GLM-5已经发布了,并且获得了非常高的评价。我昨天发文章称,在open Router上可以免费使用,然而,我发的太迟了,今天随着智普公布新模型,openRouter上的模型已经下架。 而从智普的官网看,使用GLM-5的门槛还是很高的,编程计划必须是Max用户才能使用该模型,想直接调用API来体验,但是你会发现它的并发数只有1(普通用户,充值超2000可以提升),也无法在编程工具里面直接接入 在Trae国内版,已经上线GLM-5,可以免费体验,但是要忍受排队 2. 阿里Qoder,上线了GLM-5,有免费额度,免费积分用完就不能用 3.
就是这天,智谱AI与清华大学的联合团队,在arXiv公开了GLM-5的技术报告《GLM-5:从氛围编程到智能体工程》。 GLM-5团队为此构建了一套规模庞大的训练环境体系。 它让最终的GLM-5在保持新学到的自主任务能力的同时,也保住了推理和通用对话的原有水准。 真实世界的考验:GLM-5在各项测试中的表现 说了这么多技术细节,GLM-5到底有多强? Q&A Q1:GLM-5和普通的ChatGPT有什么不同? Q2:GLM-5是开源的吗,普通人能用吗?
以前的模型主要帮助开发者写代码片段,而GLM-5能够: 理解整个工程架构 自主规划开发路径 进行系统级优化建议 处理复杂的多步骤任务 这种能力的提升,让GLM-5不再是一个简单的代码补全工具,而是一个真正的工程协作者 技术细节:低幻觉率的秘密 GLM-5采用了新的RL "slime"框架,显著降低了幻觉率。在SuperCLUE中文大模型基准测试中,国产开源模型正在实现逆袭,而GLM-5无疑是其中的佼佼者。 这让开发者能够快速将GLM-5集成到自己的应用中,形成强大的网络效应。 未来展望 智谱首席科学家唐杰表示,GLM-5是公司"冲击AGI技术高地"的关键里程碑。 虽然距离真正的通用人工智能还有很长的路要走,但GLM-5在多模态理解、复杂推理和自主学习方面的表现,确实让人看到了希望。 对于普通开发者来说,GLM-5的开源意味着更多可能性。 在这个大模型军备竞赛的时代,智谱用GLM-5证明了:真正的技术实力,就是最好的定价权。
大模型春晚 2.0 世界上最强大的开源大模型来了 没想到最先来的是 GLM-5,师承 DeepSeek,股价大涨 40% 正如前面推测的一样,它就是 GLM-5 本文只说三件事: 简介 本地部署/压缩 Sonnet 3.7 甚至不如闭源的 Qwen3-Max-Thinking 阿里 Qwen3-Max-Thinking 来了,加上 TTS 更强了,依然不开源 让我吃惊的是 Ollama 云端量化后的 GLM -5,表现很稳,除了换行有点瑕疵(Ollama 如何启动,后面有介绍) 我的测试不全面,不代表GLM-5的真实水平,我看有网友拿出的测试,看起来就很牛逼 1、师承 DeepSeek,Claude 蒸馏数据加持 从数据清洗到分析的端到端流程:缺失值处理、异常检测、趋势分析,全部通过对话完成 导出为 xlsx/csv/png 格式:直接下载结果,可立即使用 3 是 PDF / Word / Excel 创建技能 GLM 免费用直接 ollama run glm-5:cloud 就行了 launch 用法介绍太多次了,不赘述,比如一键配置Claude Code ollama launch claude --model glm
然而,随着glm-5的开源,其性能已跨入顶级梯队(对标 GPT-5.2 xhigh 和 Claude 4.5)。 GLM-5 发布后,其 Coding Plan 价格大幅上调,是国内首个敢于逆势涨价的厂商。 而glm-5首次展现了中国模型的暴力规模化参数,以往国产模型大多在百亿或千亿(300B 左右)参数徘徊,以追求推理成本的极致压缩,而GLM-5 选择了 744B 总参数、40B 激活参数的庞大架构。 GLM-5 实现了全栈国产算力训练(完全基于华为昇腾集群),不再依赖 Nvidia GPU。 而GLM-5明显有一个非常清晰的定位,就是面向B端用户,无论是从模型的能力描述来看,还是从定价来看,都印证了这一点。
通过这些创新,GLM-5 在主要的公开基准测试中取得了最先进的性能。最为关键的是,GLM-5 在实际编码任务中展现出了前所未有的能力,在处理端到端软件工程挑战方面超越了之前的基准。 GLM-5 在前端、后端和长时任务方面显著优于 GLM-4.7,缩小了与 Claude Opus 4.5 的差距。 方法 图 5 展示了 GLM-5 的整体训练流程。 凭借这些进步,GLM-5 不仅是一个更强大的模型,更是下一代人工智能智能体更高效、更实用的基础。我们向社区发布 GLM-5,以进一步推进高效、具身通用智能的前沿发展。 3.3 智能体强化学习 为了促进 GLM-5 的智能体性能,我们开发了一个完全异步且解耦的强化学习框架,并在编码和搜索智能体任务中对 GLM-5 进行优化。 表 9 展示了 GLM-5 在 SWE-rebench 上的官方性能,我们观察到 GLM-5 能够有效地泛化到新的软件工程问题。
一边是谷歌以“并行思考”挑战AGI极限,一边是OpenAI用Codex革新实时编程体验;而智谱AI则携7440亿参数的GLM-5开源归来,强势适配国产算力。 当Deep Think的深度推理遇上Codex的极速协作,再逢GLM-5的长文本智能,谁将引领新一年的技术浪潮?本文为你横向拆解三大模型的核心技术。” 国外的OpenAI 就推出 Codex 模型,谷歌放出Gemini Deep Think,国内智谱AI 开源了 GLM-5 大模型。 03 — GLM-5 核心规格与技术参数 1、参数规模:规模达 7440亿(活跃参数40B)。 3、创意与复杂任务:不仅在编程上强大,GLM-5 还能生成高质量的创意内容(如长篇叙事、营销文案)并具备深度系统性思维。
我其实已经提前三天拿到了GLM-5的API,这几天在我用Codex开发的时候,也把GLM-5同步接入到了Claude code里同步开发进行对比。 而GLM-5大概只有Claude的七分之一。 很香,真的香。 你就可以使用GLM-5了。 我也做了几个case,给大家直观的感受一下,GLM-5的能力。 前天我拿到GLM-5的资格的时候,正好有个需求要开发,就是一个全平台分发文章的需求。 没想到跟GLM-5出的方案,是一模一样的,搞得还真没毛病。 这突然一下显得我有点小肚鸡肠,不信任GLM-5了= = 模板处理完之后,很快,他就把这个系统开发完了。 而且还有个场景,GLM-5做的也很好,就是构建Skills。 这个其实也挺考验模型的理解和执行能力的。 我很喜欢用咱们的老演员yt-dlp测试GLM-5打包Skills的能力。
大模型春晚第一个节目,可能是 GLM-5? 上午Qwen3.5 要来了,字节、DeepSeek 春节或将发布旗舰大模型一文中还在讨论 Qwen 3.5、字节 Seed、DeepSeek-V4 谁会先发,结果万万没想到——最有可能发布的是智谱的 GLM 更夸张的是,消息一出,智谱股价直接大涨近 40%... 100% 确认:Pony Alpha 就是 GLM-5 网友公布一个简单的验证方法: 进入 OpenRouter 的聊天菜单设置,将系统提示从 " 官方库 巨型模型:745B 参数 GLM-5 的体量非常惊人——745B 参数,这是一个相当庞大的规模。 大模型春节,真的来了 从 Qwen 3.5、字节 Seed,到现在的 GLM-5,各家都在春节期间悄悄放大招。 看来 2026 的大模型"春招",比我们预想的还要精彩! 你觉得下一个会是谁?
01 这个模型是什么 GLM-5 是智谱刚发布的新一代旗舰模型。参数规模 744B(激活 40B),预训练数据 28.5T。 Opus 4.6 在做这个,GPT-5.3-Codex 在做这个,现在 GLM-5 也在做这个。区别是 GLM-5 开源,跑在国产芯片上,成本低一个量级。 现在 GLM-5 在 AI Coding 方向上也站到了同一梯队。视频生成和代码生成,AI 落地最重要的两个航道,国产模型都已经站到了牌桌上。 现在我的日常编程任务已经开始切到 GLM-5 了。 中等复杂度的工程任务、Debug、部署脚本——GLM-5 接得稳稳的,省下来的 API 费用相当可观。 如果你还没试过国产编程模型,GLM-5 绝对值得放进你的工具箱。 GLM-5 不是在追赶,是在开辟另一条路。
更重要的是,GLM-5 从发布之初就实现原生适配,已完成对华为昇腾、摩尔线程等七大国产芯片平台的深度优化,从模型内核到推理框架全栈打通。 GLM-5 能够实现如此强大的 Agentic 能力,核心在于其底层算法的重大突破。 那么,为什么说 GLM-5 这次的突破意义重大?核心就在于:Agentic reinforcement learning(智能体强化学习)本身极难训练。 那么,GLM-5 是如何突破这一困境的?它采用了一套全新思路:让生成与训练完全独立运行,生成管生成、训练管训练。 在此基础上,我们可以进一步来看 GLM-5 完整的训练方案是如何设计与落地的。第一,分层训练不同能力。
Release Notes,并给你整理出来,包括: 重大特性:OpenClaw 集成 — Ollama 现在内置了 OpenClaw 支持,支持 ollama launch 命令 兼容 Kimi-K2.5、GLM 提供了模型选择器,其中推荐的模型分为两类: 云端模型(无需本地 GPU) 模型 特点 kimi-k2.5:cloud[3] 多模态推理,支持子代理 minimax-m2.5:cloud[4] 高效编程和实际生产力 glm library/kimi-k2.5:cloud [4] minimax-m2.5:cloud: https://ollama.com/library/minimax-m2.5:cloud [5] glm -5:cloud: https://ollama.com/library/glm-5:cloud [6] glm-4.7-flash: https://ollama.com/library/glm-4.7
maxTokens":1048576,"compat":{"supportsStore":false,"maxTokensField":"max_tokens"}}]}}}}4.2.2ClaudeCode接口配置(以GLM https://coding.gpunexus.com","apiKey":"sk-XXXXXXXXXXXXX","api":"anthropic-messages","models":[{"id":"GLM -5","name":"GLM-5"}]}}}}4.3完整配置字段说明模型提供方字段字段类型必填说明baseUrlstring是API服务的基地址apiKeystring是您的APIKeyauthstring https://coding.gpunexus.com","apiKey":"sk-XXXXXXXXXXXXX","api":"anthropic-messages","models":[{"id":"GLM -5","name":"GLM-5"}]}}},"agents":{"defaults":{"model":{"primary":"GPUNexus/MiniMax-M2.1"},"models":{"
我选择的是GLM-5模型。6.1获取APIKey在左侧菜单找到「APIKEY管理」,点击「创建APIKEY」。 6.2获取模型名称在「模型广场」中找到「智谱AI」分类下的「GLM-5」模型,查看详情,会看到:模型完整路径:/maas/zhipuai/GLM-5API端点:https://maas-api.lanyun.net 按照原文示例填写:配置名称:蓝耘GLM-5(可自定义)API提供商:选择「OpenAI兼容」API端点:https://maas-api.lanyun.net/v1APIKey:粘贴你刚才保存的密钥模型名称 :/maas/zhipuai/GLM-5保存后,在ChatLab的AI对话框里,就可以选择这个配置进行问答了。
(使用邀请码可享9折优惠,邀请码:FZZ7MAZU) 腾讯云 支持模型:Tencent HY 2.0 Instruct、GLM-5、Kimi-K2.5、MiniMax-M2.5 等多个最新模型,更多模型持续接入中 续费40元) 阿里云百炼 支持千问系列模型: Qwen3.5-Plus、Qwen3-Max、Qwen3-Coder-Next、Qwen3-Coder-Plus 和第三方模型 MiniMax M2.5、GLM Model ID:输入自己订阅的coding plan支持的模型名称,例如:kimi-k2.5,glm-5等。 出现这个验证成功说明配置好模型了。 openclaw models查看可用模型:openclaw models list设置默认模型:openclaw modes set custom-coding-dashscope-aliyuncs-com/glm
Ollama 已经陆续免费放出 Kimi-K2.5、GLM-5、MiniMax-M2.5,也可以接进去 动手:从零搭建 FakeClawBot 整个项目的架构其实非常简单粗暴: Telegram 用户 比如我同时接入了以下几个平台: 平台 模型 用途 Quotio(本地代理) Claude Opus 4.6、Gemini 3.1 Pro 等 主力 Agent 编程 Ollama(本地部署) GLM-5 、Kimi-K2.5、MiniMax-M2.5 隐私敏感场景 SiliconFlow Kimi-K2.5、GLM-5、MiniMax-M2.5 高性价比云端调用 OpenCode Zen(免费) 多个免费模型 moonshotai/Kimi-K2.5": { "name": "Pro/moonshotai/Kimi-K2.5" }, "Pro/zai-org/GLM -5": { "name": "Pro/zai-org/GLM-5" } } } } } 关键点就是 npm 字段设为 @ai-sdk/openai-compatible
完善云模型上下文配置映射: 多个知名模型(如 qwen3.5、glm-5、kimi 系列)获得标准化的上下文与输出长度定义。 4. := range []string{"-cloud", ":cloud"} { name = strings.TrimSuffix(name, suffix) } 这意味着模型名无论写作: glm 测试验证中明确指出: 若 glm-5:cloud 没有上下文窗口值,系统将重新创建条目并附加 contextWindow = 202_752。 if ! 例如: "glm-5:cloud": { "name": "glm-5:cloud", "_launch": true } 执行更新操作后将自动附加: "limit": { "context