首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏自然语言处理

    【LLM系列之GLMGLM: General Language Model Pretraining with Autoregressive Blank Infilling

    GLM通过添加2D位置编码并允许任意顺序预测跨度来改进空白填充预训练,从而在NLU任务上比BERT和T5获得了性能提升。 通过变化空白数量和长度,可以针对不同类型的任务对GLM进行预训练。 1 GLM预训练 GLM 将 NLU 任务制定为包含任务描述的完形填空问题,这些问题可以通过自回归生成来回答。 1.1. 自回归空白填充 GLM通过优化自回归空白填充目标进行训练。 微调GLM 使用 GLM 将情感分类任务制定为空白填充。 通常,对于下游 NLU 任务,会在模型之上添加线性分类器,从而导致预训练和微调之间的不一致。 在这种情况下,GLM 使用交叉熵损失进行了微调。 3 实验结果 3.1 SuperGLUE 预训练的 GLM 模型针对每个任务进行了微调。 GLM515M ( GPT Large的 1.5 )可以进一步超越GPT Large。 4 结论 GLM是一种用于自然语言理解和生成的通用预训练框架。

    2.7K50编辑于 2023-08-25
  • 来自专栏openclaw系列

    penClaw 集成 GLM 模型家族指南

    一、GLM模型家族概述GLM并非一家公司,而是一个不断进化的模型系列。在OpenClaw中,你可以通过zai提供商轻松调用该系列的最新成员。为什么选择GLM? 高性价比:相比同级别的国际模型,GLM通常提供更具竞争力的价格性能比。长上下文:部分GLM模型支持超长上下文窗口,适合处理长篇文档、代码库分析等任务。 常见可用型号包括:zai/glm-5:最新一代旗舰,综合性能最强。zai/glm-4.7:高性能版本,平衡速度与智能。zai/glm-4.6:稳定可靠的经典版本。 后缀:对应Z.AI平台上的具体模型名称(如glm-5,glm-4-flash)。版本迭代注意GLM系列更新频繁。旧版本模型可能会逐渐下线或降级。 成本优化:对于简单的分类、提取任务,优先使用glm-4.6或flash系列;仅在复杂推理、代码生成时使用glm-5。长文档处理:GLM的长上下文版本非常适合RAG(检索增强生成)场景。

    67420编辑于 2026-03-18
  • OpenClaw + GLM 5.1 = 免费 AI Agent

    GLM-5.1:来自智谱AI的一个AI模型。它在2026年4月7日发布,是目前世界上最好的开源模型之一。 GLM-5.1可以通过Ollama作为cloudmodel使用,也就是glm-5.1:cloud。这样它会运行得很快,而你本地不需要额外硬件条件。 2.选择GLM5.1模型只要输入ollama,程序就会启动,然后选择“Chatwithamodel”这个选项。接下来,选择你要用的模型,我这里选的是GLM5.1。 就像视频里演示的一样,GLM-5.1在Ollama页面上已经给出了现成的命令:用GLM-5.1启动ClaudeCode用GLM-5.1启动Codex用GLM-5.1启动OpenCode这意味着你可以通过不同的编程接口来调用 GLM-5.1的能力。

    55711编辑于 2026-04-23
  • 来自专栏AgenticAI

    GLM-5 深度解读:智谱如何重塑 Agentic Engineering |如何白嫖体验 GLM-5

    技术架构:站在巨人肩膀上的创新 GLM-5 的技术架构体现了"站在巨人肩膀上"的明智选择。 评估集合中,GLM-5 在前端、后端、长程任务等编程开发任务上显著超越 GLM-4.7。 应用场景:从代码生成到智能体任务 GLM-5 的能力支持非常全面,包括思考模式、流式输出、Function Call、上下文缓存、结构化输出等核心功能,同时支持MCP 工具调用和GLM in Excel 如何白嫖体验 GLM-5 打开 VS Code 里的 Kilo Code,模型选择 GLM-5 free,我已经白嫖体验上了,目前为止体感不错,等待深入白嫖体验。 参考资料 [1] GLM-5官方文档: https://docs.bigmodel.cn/cn/guide/models/text/glm-5

    2.1K10编辑于 2026-02-28
  • 来自专栏数据派THU

    广义线性模型(GLM)及其应用

    广义线性模型[generalize linear model(GLM)]是线性模型的扩展,通过联系函数建立响应变量的数学期望值与线性组合的预测变量之间的关系。 mu) import statsmodels.api as sm exog, endog = sm.add_constant(x), y # Poisson regression mod = sm.GLM 总结 如果要进行“广义线性模型(GLM)”分析,只需要摘到我们需要的联系函数,它的作用就是把Y与X间的非线性关系转换成线性关系,我们完全可以自己编写我们需要的联系函数。 本文代码: https://github.com/ranasingh-gkp/StatisticalModeling_Implement/blob/main/GLM.ipynb 编辑:王菁 校对:林亦霖

    2K20编辑于 2022-09-07
  • 来自专栏DeepHub IMBA

    广义线性模型(GLM)及其应用

    广义线性模型[generalize linear model(GLM)]是线性模型的扩展,通过联系函数建立响应变量的数学期望值与线性组合的预测变量之间的关系。 import statsmodels.api as sm exog, endog = sm.add_constant(x), y # Poisson regression mod = sm.GLM 逻辑回归也就是我们常看到的这个样子 总结 如果要进行“广义线性模型(GLM)”分析,只需要摘到我们需要的联系函数,它的作用就是把Y与X间的非线性关系转换成线性关系,我们完全可以自己编写我们需要的联系函数 本文代码: https://github.com/ranasingh-gkp/StatisticalModeling_Implement/blob/main/GLM.ipynb 作者:Rana singh

    1.4K10编辑于 2022-11-11
  • OpenClaw配置白山智算GLM-5

    直接shell命令openclaw models set <provider/model>

    2.6K40编辑于 2026-03-09
  • GLM4-9B-chat Lora 微调

    考虑到部分同学配置环境可能会遇到一些问题,我们在 AutoDL 平台准备了 GLM-4 的环境镜像,该镜像适用于本教程需要 GLM-4 的部署环境。点击下方链接并直接创建 AutoDL 示例即可。 https://www.codewithgpu.com/i/datawhalechina/self-llm/GLM-4 在本节教程里,我们将微调数据集放置在根目录 /dataset。 tokenizer = AutoTokenizer.from_pretrained('/root/autodl-tmp/glm-4-9b-chat/ZhipuAI/glm-4-9b-chat', use_fast -4-9b-chat/ZhipuAI/glm-4-9b-chat' lora_path = '. -4/05-GLM-4-9B-chat%20Lora%20%E5%BE%AE%E8%B0%83.ipynb

    41110编辑于 2025-07-21
  • GLM-4-9b-Chat 接入 LangChain

    ,也兼容langchain的0.1.15版本,下载方式如下: pip install langchain==0.1.15 考虑到部分同学配置环境可能会遇到一些问题,我们在 AutoDL 平台准备了 GLM -4 的环境镜像,该镜像适用于本教程需要 GLM-4 的部署环境。 https://www.codewithgpu.com/i/datawhalechina/self-llm/GLM-4 代码准备 为便捷构建 LLM 应用,我们需要基于本地部署的 Chat,自定义一个 self.gen_kwargs.get("top_k"), } @property def _llm_type(self) -> str: return "glm 2500, "do_sample": True, "top_k": 1} llm = ChatGLM4_LLM(mode_name_or_path="/root/autodl-tmp/ZhipuAI/glm

    48610编辑于 2025-07-21
  • 来自专栏计算机视觉战队

    基于LangChain+GLM搭建知识本地库

    一种利用langchain思想实现的基于本地知识库的问答应用,目标期望建立一套对中文场景与开源模型支持友好、可离线运行的知识库问答解决方案。

    1.7K60编辑于 2023-08-24
  • 来自专栏数据分析与挖掘

    GLM: General Language Model Pretraining with Autoregressive Blank Infilling

    ChatGLM的基座是GLM: General Language Model Pretraining with Autoregressive Blank Infilling论文中提出的模型,接下来我们来看看 /2022.acl-long.26.pdf代码地址:https://github.com/THUDM/GLM介绍预训练语言吗模型大体可以分为三种:自回归(GPT系列)、自编码(BERT系列)、编码-解码 GLM是一个通用的预训练语言模型,它在NLU(自然语言理解)、conditional(条件文本生成) and unconditional generation(非条件文本生成)上都有着不错的表现。 GLM的核心是:Autoregressive Blank Infilling,如下图1所示:即,将文本中的一段或多段空白进行填充识别。 模型架构GLM使用单个Transformer,并对架构进行了修改:(1)调整layer normalization和residual connection的顺序。

    2.8K30编辑于 2023-04-02
  • 来自专栏kali blog

    GLM5-Turbo!全球首个龙虾模型来了

    而它能稳定、流畅完成各类复杂龙虾任务的核心,就是搭载了全球首个龙虾专属大模型 GLM5-Turbo。 安装 官网下载安装包,便可以一键运行。 接下来,让我们一起体验 GLM5-Turbo 到底强不强。 飞书等IM一键接入 为了方便与我的 AI 沟通,我们需要配置飞书。 而这来源于GLM5-Turbo 超强的「复杂指令拆解与多步骤执行能力」。 日常办公 作为合格的牛马,GLM5-Turbo支持下的龙虾。可以随时帮我们完成日常办公。 开发编程 GLM5-Turbo模型的接入,让普通用户也能成为编程大师。 日常电脑维护 日常工作中,我们可能会遇到各种电脑疑难杂症。GLM5-Turbo轻松为你解决! 总结 作为全球首个龙虾专属大模型, GLM5-Turbo 在实测中表现很亮眼。

    47810编辑于 2026-04-01
  • Claude Code配置白山智算GLM-5

    API_TIMEOUT_MS": "3000000", "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1", "ANTHROPIC_MODEL": "glm 问题一开始我以为要配置成 https://api.edgefn.net/v1/chat/completions 导致在对话时出现问题:There's an issue with the selected model (glm

    2.3K10编辑于 2026-03-05
  • 来自专栏程序随笔

    聊聊GLM基座模型的理论知识

    掩码处理 GLM统一了自编码模型与自回归模型,主要是在该处理过程实现的。该过程也被成为自回归空格填充。 掩码策略:在GLM模型中,采用了自回归空白填充(Autoregressive Blank Infilling)的自监督训练方式。 在GLM模型中,采用了交叉熵损失函数来衡量模型在掩码处理任务上的表现。这个过程涉及到优化理论和数值分析的知识。 在GLM中,使用二维位置编码,第一个位置id用来标记Part A中的位置,第二个位置id用来表示跨度内部的相对位置。 参考 清华ChatGLM底层原理详解 GLM(General Language Model)论文阅读笔记

    1.6K10编辑于 2023-12-18
  • GLM-4-9B-Chat WebDemo 部署

    install transformers_stream_generator==0.0.4 pip install tiktoken 考虑到部分同学配置环境可能会遇到一些问题,我们在 AutoDL 平台准备了 GLM -4 的环境镜像,该镜像适用于本教程需要 GLM-4 的部署环境。 https://www.codewithgpu.com/i/datawhalechina/self-llm/GLM-4 模型下载 使用 modelscope 中的snapshot_download函数下载模型 import snapshot_download, AutoModel, AutoTokenizer import os model_dir = snapshot_download('ZhipuAI/glm st.caption(" A streamlit chatbot powered by Self-LLM") # 定义模型路径 mode_name_or_path = 'autodl-tmp/ZhipuAI/glm

    47810编辑于 2025-07-21
  • GLM-4-9B-chat FastApi 部署调用

    0.1.99 pip install accelerate==0.24.1 pip install tiktoken==0.7.0 考虑到部分同学配置环境可能会遇到一些问题,我们在 AutoDL 平台准备了 GLM -4 的环境镜像,该镜像适用于本教程需要 GLM-4 的部署环境。 https://www.codewithgpu.com/i/datawhalechina/self-llm/GLM-4 模型下载 使用 modelscope 中的 snapshot_download import snapshot_download, AutoModel, AutoTokenizer import os model_dir = snapshot_download('ZhipuAI/glm main__': # 加载预训练的分词器和模型 tokenizer = AutoTokenizer.from_pretrained("/root/autodl-tmp/ZhipuAI/glm

    63010编辑于 2025-07-21
  • GLM-4-9B-Chat vLLM 部署调用

    https://www.codewithgpu.com/i/datawhalechina/self-llm/GLM-4 使用 modelscope 中的 snapshot_download 函数下载模型 import snapshot_download, AutoModel, AutoTokenizerimport osmodel_dir = snapshot_download('ZhipuAI/glm 创建兼容 OpenAI API 接口的服务器 GLM4 兼容 OpenAI API 协议,所以我们可以直接使用 vLLM 创建 OpenAI API 服务器。 这里指定 --max-model-len=2048 是因为 GLM4-9b-Chat 模型的最大长度过长 128K,导致 vLLM 初始化 KV 缓存时消耗资源过大。 glm-4-9b-chat --max-model-len=2048 --trust-remote-code 通过 curl 命令查看当前的模型列表。

    1.6K20编辑于 2025-07-21
  • 现在,如何免费使用GLM-5进行编程?

    GLM-5已经发布了,并且获得了非常高的评价。我昨天发文章称,在open Router上可以免费使用,然而,我发的太迟了,今天随着智普公布新模型,openRouter上的模型已经下架。 而从智普的官网看,使用GLM-5的门槛还是很高的,编程计划必须是Max用户才能使用该模型,想直接调用API来体验,但是你会发现它的并发数只有1(普通用户,充值超2000可以提升),也无法在编程工具里面直接接入 在Trae国内版,已经上线GLM-5,可以免费体验,但是要忍受排队 2. 阿里Qoder,上线了GLM-5,有免费额度,免费积分用完就不能用 3.

    2.8K10编辑于 2026-03-03
  • 来自专栏拓端tecdat

    R语言代做编程辅导和解答GLM Coursework

    survived || ---------------------------------------------------------- | -------------------- || fit1 <- glm (y ~ ldose * sex, family=binomial(link=probit)) | || fit2 <- glm(y ~ sex + ldose

    60710编辑于 2022-12-13
  • GLM-4.7正式发布:代码更强,美学更美!

    开篇暴击:这不是模型升级,是“职业代练”上线兄弟们,不是我夸张——GLM-4.7,它真·成了。它不光写代码稳了,连审美都卷上来了! 硬核升级:三大“思考模式”,堪比程序员的“咖啡因开关”GLM-4.7搞了个新功能叫“先思考、再行动”(ThinkBeforeYouLeap),听着像人生哲理? 审美革命:代码+设计=真·全栈开发体验你以为GLM-4.7只是“码力”飙升?不,它偷偷报了UI/UX速成班! →秒回,绝不装深沉>结语:圣诞老人没来,但GLM-4.7带着热乎的commit来了它不完美——但它是第一个让“开源模型能真正交付”的选手。从前我们说:“开源模型,能跑就行。” 现在我们说:“GLM-4.7?哦,那个写了需求还能自测+改UI的同事。”彩蛋:用GLM-4.7给本文生成了个标题备选——《当AI学会审美:从“能跑就行”到“老板说加个微动效吧”》……我选了现在的这个。

    2.2K140编辑于 2025-12-23
领券