首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏MavenTalk

    ChatGLM实战:Langchain-ChatGLM中间件的深度学习

    在之前对 ChatGLM 的搭建部署和测试使用过程中,我对 ChatGLM 和 Langchain 的能力有了初步了解。 Langchain官网没有关于ChatGLM的教程,那么就从百度或者Github找到相似示例,这里我们可以参考上次搭建的langchain-ChatGLM的源码去着手,分析是怎么加载自己的原型的。 一个包含分词器所需词汇文件的目录路径,例如使用 save_pretrained() 方法保存的目录,例如:/root/prj/ChatGLM-6B/THUDM/chatglm2-6b-32k。 后续将继续输出ChatGLM 开发学习相关的内容,请继续关注。 —扩 展 阅 读— WPS Office AI实战总结,智能化办公时代已来 ChatGLM实战:基于LangChain构建自己的私有知识库 ChatGLM-6B大模型微调实战总结 快速部署ChatGLM

    1.2K21编辑于 2023-09-06
  • 来自专栏AI科技时讯

    使用ChatGLM记录

    ChatGLM ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。 官方网站:https://chatglm.cn/ 项目地址:https://github.com/THUDM/ChatGLM-6B 相关PPT:ChatGLM: 从千亿模型到ChatGPT 相关实践: -6b/ https://huggingface.co/THUDM/chatglm-6b-int8 https://huggingface.co/THUDM/chatglm-6b-int4 这里以fp16 png 如果不一致的话,修改文件名为对应的chatglm-6b cli_demo.py image-20230615170922825.png 如果不一致的话,修改文件名为对应的chatglm-6b 我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。", "history":[["你好","你好!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。"]]

    1.1K40编辑于 2023-09-01
  • 来自专栏AI技术探索和应用

    ChatGLM模型微调

    ChatGLM3: https://github.com/THUDM/ChatGLM3微调前建议将模型下载到本地。微调前还需要安装依赖。 conda create -n chatglm3 python=3.11 -ypip install astunparse对话模型微调我们使用 ToolAlpaca 数据集来进行微调。 "role": "assistant", "content": "<assistant response text>" } ] } // ...](2)使用ChatGLM3 /composite_demoMODEL_PATH="THUDM/chatglm3-6b" PT_PATH="path to p-tuning checkpoint" streamlit run main.py (1)数据格式要求{"context": "hello", "target": "hi,I am ChatGLM3"}context是对话的上文,也就是模型的输入,target是对话的下文,也就是模型的输出

    1.6K21编辑于 2025-09-26
  • 来自专栏千帆企业应用连接器

    ChatGLM是什么?ChatGLM和ChatGPT有什么区别?

    ChatGLM是什么?ChatGLM是清华技术成果转化的公司智谱AI研发的支持中英双语的对话机器人。 ChatGLM基于GLM130B千亿基础模型训练,它具备多领域知识、代码能力、常识推理及运用能力;支持与用户通过自然语言对话进行交互,处理多种自然语言任务。 图片ChatGLM数据如何在企业微信、飞书、钉钉中使用? 现在ChatGLM已接入腾讯轻联,可以和企业微信、飞书、钉钉l连接,实现自动回复,提供工作效率。 图片ChatGLM其他自动化场景示例:我们可以通过腾讯轻联将ChatGLM与IM系统、财务系统、OA系统等多平台进行连接,实现以下场景的自动化:● AI运营小助手:每日帮助撰写活动文案、视频脚本、报告大纲等内容

    3.8K40编辑于 2023-05-09
  • 来自专栏MavenTalk

    ChatGLM实战:用Langchain-ChatGLM解析小说《天龙八部》

    流程理解 通过阅读langchain-ChatGLM源码,知道了langchain实现本地知识库问答的大体框架,这里通过流程图进行解说: 从上面的流程图可以看出,本地知识库问答实现流程如下: 通过langchain 代码实现 根据上面的流程,我对langchain-ChatGLM做了极简化,也实现了本地知识库的问答,这里输入天龙八部小说。 -6B/THUDM/chatglm2-6b-32k" tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True 总之,Langchain-ChatGLM为扩展GPT模型应用领域提供了一种有趣方式,使其能更好地处理不同领域和主题的问答需求。 ChatGLM实战:6B大模型微调实战总结 ChatGLM实战:快速部署ChatGLM-6B大模型实战总结

    1.6K30编辑于 2023-09-06
  • 来自专栏机器学习

    Mac 配置ChatGLM-6B环境

    背景最近要做一些关于NLP相关的工作和比赛,因此要用到语义分析这类模型,ChatGPT虽然很强大,奈何不太适合在工作和国内的环境中使用,因此需要用到一些平替的模型,比如ChatGLM-6B。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。 更大的基于 1300 亿参数 GLM-130B 的 ChatGLM 正在内测开发中。 我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。 ,将以上代码中的 THUDM/chatglm-6b 替换为你本地的 chatglm-6b 文件夹的路径,即可从本地加载模型。

    61200编辑于 2024-02-07
  • 来自专栏AI技术探索和应用

    ChatGLM2-6B使用入门

    ChatGLM2-6B模型的中文效果较好,相比ChatGLM-6B模型有了进一步的优化,可以本地部署尝试。 模型下载和调试 下载源代码 git clone https://github.com/THUDM/ChatGLM2-6B cd ChatGLM2-6B pip install -r requirements.txt 我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。 -6b 然后从这里手动下载模型参数文件,并将下载的文件替换到本地的 chatglm2-6b 目录下。 Github: https://github.com/li-plus/chatglm.cpp 支持流式返回内容。

    1.5K20编辑于 2024-03-13
  • 来自专栏软件研发

    ChatGLM2-6B入门

    ChatGLM2-6B入门ChatGLM2-6B是一个基于生成语言模型的对话系统,它使用了GLM(Generative Language Model)框架,并基于2.6B参数的模型。 本文将介绍如何使用ChatGLM2-6B进行对话生成,并提供一些使用上的建议。安装ChatGLM2-6B首先,确保你已经安装了Python 3环境。 然后,使用以下命令来安装ChatGLM2-6B的Python包:plaintextCopy codepip install chatglm2-6b使用ChatGLM2-6B生成对话使用ChatGLM2- pythonCopy codefrom chatglm2_6b import ChatGLM2_6BGeneratorgenerator = ChatGLM2_6BGenerator()def generate_dialogue 我们还提供了一些使用上的建议,以帮助你更好地使用ChatGLM2-6B生成对话。希望本文对你理解和使用ChatGLM2-6B有所帮助!

    51420编辑于 2023-11-01
  • 来自专栏信数据得永生

    ChatGLM2 源码解析:`GLMTransformer`

    47620编辑于 2023-10-13
  • 来自专栏信数据得永生

    ChatGLM3 源码解析(三)

    55010编辑于 2024-03-08
  • 来自专栏信数据得永生

    ChatGLM2 源码解析:`ChatGLMTokenizer`

    97330编辑于 2023-11-09
  • 来自专栏信数据得永生

    ChatGLM3 源码分析(四)

    51610编辑于 2024-03-12
  • 来自专栏信数据得永生

    ChatGLM2 源码解析:`ChatGLMModel`

    65230编辑于 2023-10-13
  • 来自专栏追不上乌龟的兔子

    本地部署ChatGLM-6B

    今天在自己的 PC 上部署和体验了ChatGLM-6B的推理服务,简单记录一下流程。 ChatGLM-6B 简介 ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。 硬件环境 我的 PC 使用的是 RTX 2060 Super 显卡,具有 8GB 显存,可以满足 ChatGLM-6B 的部署要求。 -6B 模型 直接通过 git clone 将 ChatGLM-6B 仓库克隆到本地。

    4.3K30编辑于 2023-05-01
  • 来自专栏技术趋势

    chatGLM3-LoRA微调实战

    注意:ChatGLM3-6B-Base 和 ChatGLM3-6B-32K 模型不支持微调。 啥是泛化能力? 这是一种常见的深度学习策略,通常在预训练的大语言模型上使用 4张显卡平均分配,每张显卡占用 48346MiB 显存大约是195GB P-TuningV2 是ChatGLM模型专有的微调方式, 微调: Tsinghua Cloud 参考:https://github.com/THUDM/ChatGLM3/blob/main/finetune_demo/README.md 说明:dev.json用于验证数据集的文件 ╭───────────────────── Traceback (most recent call last) ──────────────────────╮ │ /data/llm/llama/ChatGLM3 参考文献: https://zhuanlan.zhihu.com/p/646791309 https://github.com/THUDM/ChatGLM3/blob/main/finetune_demo

    1.9K10编辑于 2024-03-22
  • 来自专栏Eliauk的小窝

    使用SSE对接清华chatGLM模型

    CompletionRequest.Role.USER).content(message).build())) .model(CompletionRequest.Model.CHATGLM_TURBO.getCode

    88410编辑于 2023-12-14
  • 来自专栏信数据得永生

    ChatGLM2 源码解析:`MLP`

    41320编辑于 2023-10-13
  • 来自专栏muller的测试分享

    清华大学ChatGLM大模型

    ChatGLM 大模型ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。 欢迎通过 chatglm.cn 体验更大规模的 ChatGLM 模型。 ChatGLM-6B 权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。 我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。

    40810编辑于 2024-08-28
  • 来自专栏Michael阿明学习之路

    ChatGLM-6B 安装试用

    地址: https://github.com/THUDM/ChatGLM-6B https://huggingface.co/THUDM/chatglm-6b git clone https:// github.com/THUDM/ChatGLM-6B conda create -n chatglm python=3.8 conda activate chatglm cd ChatGLM-6B/ ChatGLM-6B:可以用鸡肉代替猪肉做鱼香肉丝,鸡肉的口感和味道与猪肉相似,也比较容易制作出嫩滑的口感。 ChatGLM-6B:当然可以! ChatGLM-6B:没有猪肉,可以用鸡肉代替。鸡肉是一种营养丰富、味道不错的食材,可以用来制作各种菜肴。以下是一些可以用鸡肉代替猪肉的做法: 1.

    1.3K50编辑于 2023-04-24
  • 来自专栏信数据得永生

    ChatGLM3 源码解析(二)

    42410编辑于 2024-03-08
领券