首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI技术探索和应用

    ChatGLM2-6B使用入门

    ChatGLM2-6B模型的中文效果较好,相比ChatGLM-6B模型有了进一步的优化,可以本地部署尝试。 模型下载和调试 下载源代码 git clone https://github.com/THUDM/ChatGLM2-6B cd ChatGLM2-6B pip install -r requirements.txt -6b", trust_remote_code=True) model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code 我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。 -6b 然后从这里手动下载模型参数文件,并将下载的文件替换到本地的 chatglm2-6b 目录下。

    1.5K20编辑于 2024-03-13
  • 来自专栏软件研发

    ChatGLM2-6B入门

    ChatGLM2-6B入门ChatGLM2-6B是一个基于生成语言模型的对话系统,它使用了GLM(Generative Language Model)框架,并基于2.6B参数的模型。 本文将介绍如何使用ChatGLM2-6B进行对话生成,并提供一些使用上的建议。安装ChatGLM2-6B首先,确保你已经安装了Python 3环境。 然后,使用以下命令来安装ChatGLM2-6B的Python包:plaintextCopy codepip install chatglm2-6b使用ChatGLM2-6B生成对话使用ChatGLM2- 我们还提供了一些使用上的建议,以帮助你更好地使用ChatGLM2-6B生成对话。希望本文对你理解和使用ChatGLM2-6B有所帮助! 这个例子展示了如何将ChatGLM2-6B应用于电子商务的在线客服场景。用户可以通过与ChatGLM2-6B进行对话来获取产品信息、解决问题或咨询服务。

    51620编辑于 2023-11-01
  • 来自专栏程序随笔

    ChatGLM2-6B模型的微调

    参考 ChatGLM2-6B微调视频讲解 基于第二代 ChatGLM2-6B P-Tuning v2 微调训练医疗问答任务 官方p-tuning微调文档

    58610编辑于 2023-12-18
  • 来自专栏Python与算法之美

    60分钟吃掉ChatGLM2-6b微调范例~

    干货预警:这可能是你能够找到的最容易懂的,最完整的,适用于各种NLP任务的开源LLM的finetune教程~ ChatGLM2-6b是清华开源的小尺寸LLM,只需要一块普通的显卡(32G较稳妥)即可推理和微调 本范例使用非常简单的,外卖评论数据集来实施微调,让ChatGLM2-6b来对一段外卖评论区分是好评还是差评。 如果网络不稳定,也可以手动从这个页面一个一个下载全部文件然后放置到 一个文件夹中例如 'chatglm2-6b' 以便读取。 from transformers import AutoModel,AutoTokenizer model_name = "chatglm2-6b" #或者远程 “THUDM/chatglm2-6b ls chatglm2-6b !cp chatglm2-6b/*.py chatglm2-6b-waimai/ !

    1K20编辑于 2023-09-05
  • 来自专栏程序员树先生

    LangChain + ChatGLM2-6B 搭建个人专属知识库

    ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval ChatGLM2-6B 部署ChatGLM2-6B 微调LangChain + ChatGLM2-6B 构建个人专属知识库ChatGLM2-6B 部署这里我们还是白嫖阿里云的机器学习 PAI 平台,使用 ChatGLM-6B 回答:ChatGLM2-6B 回答:明显可以看出,ChatGLM2-6B 相比于上一代模型响应速度更快,问题回答精确度更高,且拥有更长的(32K)上下文! 基于 P-Tuning 微调 ChatGLM2-6B ChatGLM2-6B 环境已经有了,接下来开始模型微调,这里我们使用官方的 P-Tuning v2 对 ChatGLM2-6B 模型进行参数微调, "chatglm2-6b": { "name": "chatglm2-6b", "pretrained_model_name": "/mnt/workspace/chatglm2

    6.4K53编辑于 2023-07-14
  • 来自专栏新智元

    清华第二代60亿参数ChatGLM2开源!中文榜居首,碾压GPT-4,推理提速42%

    项目地址:https://github.com/THUDM/ChatGLM2-6B HuggingFace:https://huggingface.co/THUDM/chatglm2-6b 最新版本ChatGLM2 而最新版本ChatGLM2-6B以51.7分位列第6。 更开放的协议 ChatGLM2-6B权重对学术研究完全开放,在获得官方的书面许可后,亦允许商业使用。 效果 相比于初代模型,ChatGLM2-6B在多个维度的能力上,都取得了巨大的提升。 使用方法 环境安装 首先需要下载本仓库: git clone https://github.com/THUDM/ChatGLM2-6B cd ChatGLM2-6B 然后使用pip安装依赖:pip 参考资料: https://github.com/THUDM/ChatGLM2-6B https://huggingface.co/THUDM/chatglm2-6b

    91530编辑于 2023-09-08
  • 来自专栏JAVA

    ChatGLM2-6B和ChatGLM-6B:双语对话生成的领先之选

    ChatGLM2-6B和ChatGLM-6B:双语对话生成的领先之选 ChatGLM2-6B和ChatGLM-6B12是由清华大学的KEG和数据挖掘小组(THUDM)共同开发和发布的两个开源中英双语对话模型 ChatGLM2-6B相比ChatGLM-6B的优势 ChatGLM2-6B是ChatGLM-6B的第二代版本,相比第一代,它带来了一系列显著的优势2: 1. ChatGLM2-6B和ChatGLM-6B的应用场景 由于其强大的性能和多语言支持,ChatGLM2-6B和ChatGLM-6B在许多应用场景中具有广泛的潜力: 1. 了解更多关于ChatGLM2-6B和ChatGLM-6B的信息,您可以访问以下链接: ChatGLM2-6B: https://gitee.com/mirrors/chatglm2-6b ChatGLM -6B: https://github.com/thudm/chatglm2-6b 希望这篇博客能够帮助您更好地了解ChatGLM2-6B和ChatGLM-6B,并在对话生成领域的应用中发挥作用。

    39710编辑于 2024-11-20
  • 来自专栏加菲猫的VFP

    加菲猫的AI大模型初体验

    项目地址: GitHub:https://github.com/THUDM/ChatGLM2-6B Hugging Face:https://huggingface.co/THUDM/chatglm2- 6b ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性: 更强大的性能 :基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。 ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval git clone https://github.com/THUDM/ChatGLM2-6B cd ChatGLM2-6B 模型放在chatglm2-6b文件夹下,模型一般都体积非常大,耐心等待。

    35210编辑于 2024-04-11
  • 来自专栏技术人生黄勇

    教程|使用免费GPU 资源搭建专属知识库 ChatGLM2-6B + LangChain

    GPU 云环境搭建 ChatGLM2-6B 坎坷路。 02 — 部署 ChatGLM2-6B 上面部分已经把环境准备好了,开始项目部署。‍‍‍ ‍‍‍ 下载源码‍ git clone https://github.com/THUDM/ChatGLM2-6B 安装项目所需依赖 cd ChatGLM2-6B # 官方推荐 transformers 库版本推荐为 模型下载问题解决后,我把模型文件放在了 ChatGLM2-6B/model 目录下,完整目录地址:/mnt/workspace/ChatGLM2-6B/model。‍‍‍‍‍‍‍‍‍‍‍ "chatglm2-6b": { "name": "chatglm2-6b", "pretrained_model_name": "/mnt/workspace/chatglm2 往期热门文章推荐: 工程落地实践|基于 ChatGLM2-6B + LangChain 搭建专属知识库初步完成 又一家顶级的大模型开源商用了!

    55710编辑于 2024-07-19
  • 来自专栏猫头虎博客专区

    ChatGLM2-6B和ChatGLM-6B:开源双语对话模型,探索无限对话可能!

    ChatGLM2-6B和ChatGLM-6B:开创双语对话生成新时代 摘要: 本文介绍了ChatGLM2-6B和ChatGLM-6B这两个开源的中英双语对话模型,它们由清华大学的KEG和数据挖掘小组(THUDM ChatGLM2-6B和ChatGLM-6B 中英双语对话模型有哪些应用场景? 除上述场景外,ChatGLM2-6B和ChatGLM-6B还可以广泛应用于其他需要自然语言交互的领域,拥有较强的通用性和适应性。 ChatGLM2-6B和ChatGLM-6B的优缺点有哪些? 商用授权不明确:ChatGLM2-6B虽允许申请商用授权,但商用条件和收费信息尚不明确;ChatGLM-6B完全禁止商用。 ChatGLM2-6B和ChatGLM-6B的训练数据集主要有哪些? 使用ChatGLM2-6B和ChatGLM-6B进行对话生成的方法有以下几种: 使用HuggingFace的pipeline:通过调用HuggingFace的pipeline接口,加载ChatGLM2-

    1K10编辑于 2024-04-08
  • 来自专栏菩提树下的杨过

    ubuntu上搭建ChatGLM2-6b环境及ptuing微调训练的坑

    清华大学的chatGLM2-6B可以说是目前亚洲唯一能打的对中文支持不错的LLM大模型,网上已经有很多介绍如何在本机搭建环境的文章,就不再重复了,这里记录下最近踩的一些坑: 1、为啥要使用ubuntu chatGLM2-6b项目里有很多.sh文件,在windows下正常运行通常要折腾一番,最后能不能全部通关,讲究1个“缘”字,还不如直接找个linux环境,能避免不少麻烦,如果不想安装双系统的同学们,也可以使用 --response_column summary \ --overwrite_cache \ --model_name_or_path /home/jimmy/code/model/chatglm2

    1.5K30编辑于 2023-07-31
  • 来自专栏猫头虎博客专区

    ChatGLM2-6B和ChatGLM-6B:开启双语对话生成的新时代

    ChatGLM2-6B和ChatGLM-6B的优缺点: ChatGLM2-6B和ChatGLM-6B作为中英双语对话模型,各自有着独特的优势和劣势。 ChatGLM2-6B和ChatGLM-6B是什么? ChatGLM2-6B和ChatGLM-6B是两个开源的中英双语对话模型,由清华大学的KEG和数据挖掘小组(THUDM)开发和发布12。 ChatGLM2-6B是ChatGLM-6B的第二代版本,相比第一代,它有以下几个优势12: 更强大的性能:在各项对话任务中,ChatGLM2-6B都比ChatGLM-6B有了很大提升,例如在数学任务上 /p/639504895 3: https://github.com/thudm/chatglm2-6b 4: https://huggingface.co/THUDM/chatglm2-6b ChatGLM2 以上只是一些示例,实际上ChatGLM2-6B和ChatGLM-6B可以应用于任何需要自然语言交互的领域和场景,只要符合开源协议3。 ChatGLM2-6B和ChatGLM-6B的优缺点有那些?

    89610编辑于 2024-04-08
  • 来自专栏iOS打包,上架知识大全

    【腾讯云HAI域探秘】0基础也能开发应用

    环境搭建 进入算力管理控制台 点击 新建 选择 AI模型,输入实例名称 等待创建完成 (预计等待3-8分钟,等待时间不计费) 创建完成,查看相关状态 启动 高性能应用服务HAI 配置的 ChatGLM2 -6B WebUI 进行简单的对话 选择 chatglm2_gradio 进入 WebUI 页面 体验与 ChatGLM2-6B 简单的对话 高性能应用服务HAI 快速为开发者提供 ChatGLM2 -6B API 服务 ① .使用 JupyterLab 启动 ChatGLM2-6B 提供的 API 服务 (1) .在 算力管理 页面,选择进入 jupyter_lab 页面 apt-get update fuser -k 6889/tcp #执行这条命令将关闭 HAI提供的 chatglm2_gradio webui功能 如果需要重新开启 webui 服务执行以下命令: python /root/ChatGLM2 /ChatGLM2-6B python api.py 总结 腾讯云高性能应用服务(HAI)是一款强大而便捷的GPU应用服务产品,为开发者和研究者提供了一个灵活、易于使用的平台。

    59930编辑于 2023-11-03
  • 来自专栏信数据得永生

    ChatGLM2 源码分析:`ChatGLMForConditionalGeneration.chat, .stream_chat`

    我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。' 我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题 [('你好', '你好!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题')] 你好! 我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。 [('你好', '你好!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。')] 你好! 我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。 [('你好', '你好!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。')] 我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。'

    85130编辑于 2023-10-13
  • 来自专栏DeepHub IMBA

    AutoGen完整教程和加载本地LLM示例

    ChatGLM2-6B是其第二代产品。 git clone https://huggingface.co/THUDM/chatglm2-6b 都下载完成后就可以使用了,先启动控制器: python -m fastchat.serve.controller request response = oai.ChatCompletion.create( config_list=[ { "model": "chatglm2 -6b \ --model-names chatglm2-6b 那么推理的代码如下(注意,你要有多卡或者显存足够): from autogen import oai # create request response = oai.ChatCompletion.create( config_list=[ { "model": "chatglm2

    5.7K20编辑于 2023-11-01
  • 来自专栏雪萌天文台

    【玩转GPU】训练一个自己的ChatGLM2-6B微调模型

    前言最近清华大学又给我们整出了ChatGLM2-6b,其性能相比上一代拥有了较大的提升。如果想要微调现有的大语言模型,现在也许是个不错的时机。本篇文章将介绍如何使用较低的成本在云上微调自己的模型。 相关链接:THUDM/ChatGLM2-6B: ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型 (github.com)THUDM/chatglm2 gitapt install git-lfsgit clone https://github.com/THUDM/ChatGLM2-6Bcd ChatGLM2-6Bgit lfs install现在我们拥有了ChatGLM2 install rouge_chinese nltk jieba datasets transformers[torch]git clone https://huggingface.co/THUDM/chatglm2 在评测数据中,含有与验证集相同的输入,labels 是 dev.json中的预测输出,predict 是 ChatGLM2-6B 生成的结果,对比预测输出和生成结果,评测模型训练的好坏。

    4.8K21编辑于 2023-07-17
  • 来自专栏技术人生黄勇

    快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间

    “分享一个简单的部署 ChatGLM2-6B 模型到 Huggingface Space 在线空间的方法。” 01— 在这篇文章:终于部署成功! GPU 云环境搭建 ChatGLM2-6B 坎坷路中,用线上云算力的资源部署了一套 ChatGLM2-6B,最后显示一行提示: “This share link expires in 72 hours. 看起来正确,感觉 ChatGLM2-6B 还真是不弱。国产之光,ChatGPT 国内产品的平替真不是白叫的。感兴趣的朋友,可以看 ChatGLM2-6B 初体验。 t4-small, t4-medium, a10g-small, a10g-large, a100-large) [cpu-basic]: ‍‍‍‍‍‍‍ 这个地方输入:t4-medium,才能让 ChatGLM2 Huggingface Space 提供一个永久的空间地址供访问: https://huggingface.co/spaces/foghuang/ChatGLM2-6B

    68110编辑于 2024-07-19
  • 来自专栏技术人生黄勇

    工程落地实践|国产大模型 ChatGLM2-6B 阿里云上部署成功

    “ 之前尝试过在各种不同的云平台、云算力,部署清华大模型 ChatGLM2-6B,有失败有成功,但不是很理想。这次使用免费的阿里云机器学习GPU资源,终于成功了。” 之前的部署经历: 快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间‍‍‍‍‍‍‍‍ 终于部署成功! GPU 云环境搭建 ChatGLM2-6B 坎坷路 这次有朋友介绍阿里云也有机器学习PAI,其中交互式建模DSW,可以用来部署自己的模型和数据集。‍‍‍‍ 先分享免费使用国产大模型 ChatGLM2-6B 对话的地址:‍‍‍ https://8a27eb15-4d03-47fe.gradio.live/ 在服务器上面命令行测试模型对话:‍‍‍‍‍‍‍ Web 03 — 相关教程、资源 【官方教程】‍‍‍‍‍ ChatGLM2-6B 部署与微调 https://www.bilibili.com/video/BV1D94y1i7Qp 视频中的 PPT 文件下载:

    49610编辑于 2024-07-19
  • 来自专栏技术人生黄勇

    ChatGLM 更新:LongBench—评测长文本理解能力的数据集,支持 32k 上下文的 ChatGLM2-6B-32K

    利用该评测数据集,官方分别对 GPT-3.5-Turbo-16k、Llama2-7B-chat-4k、LongChat-7B-16k、XGen-7B-8k、InternLM-7B-8k、ChatGLM2 评测 官方提供了以 ChatGLM2-6B 为例提供了一份评测代码。 Meta(Facebook)的 Llama 2 搅动大模型混战的格局 教程|使用免费GPU 资源搭建专属知识库 ChatGLM2-6B + LangChain 工程落地实践|基于 ChatGLM2- 6B + LangChain 搭建专属知识库初步完成 工程落地实践|国产大模型 ChatGLM2-6B 阿里云上部署成功 快捷部署清华大模型 ChatGLM2-6B,一键搞定 HuggingFace Space 空间 ChatGLM2-6B 初体验 为什么对ChatGPT、ChatGLM这样的大语言模型说“你是某某领域专家”,它的回答会有效得多?

    1K10编辑于 2024-07-19
  • 来自专栏数据STUDIO

    ChatGLM金融大模型挑战赛赛题总结

    构建进入财报的问答系统 赛题类型:文本问答、大模型 https://tianchi.aliyun.com/competition/entrance/532126/information 赛题介绍 本次比赛要求参赛选手以ChatGLM2 赛题任务 本次比赛要求参赛选手以ChatGLM2-6B模型为中心制作一个问答系统,回答用户的金融相关的问题,不允许使用其他的大语言模型。 本次比赛评估模型能力的赛题按照涉及模型的能力和复杂程度大体分为初级、中级、高级三种类型,每种类型的题目拥有不同的分值: 初级:数据基本查询(40分) 参赛者需要利用提供的ChatGLM2-6B开源模型和上市公司年报原始数据

    74660编辑于 2023-11-20
领券