首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏LLM

    ChatGLM4系列】入门介绍以及API调用

    content='"激活想象,智谱AI平台,让每一刻都是创新的起点!"' role='assistant' tool_calls=None

    2K10编辑于 2025-01-21
  • [大模型]GLM-4-9b-Chat 接入 LangChain

    www.codewithgpu.com/i/datawhalechina/self-llm/GLM-4 代码准备 为便捷构建 LLM 应用,我们需要基于本地部署的 Chat,自定义一个 LLM 类,将 ChatGLM4 基于本地部署的 ChatGLM4 自定义 LLM 类并不复杂,我们只需从 Langchain.llms.base.LLM 类继承一个子类,并重写构造函数与 _call 函数即可: from langchain.llms.base transformers import AutoTokenizer, AutoModelForCausalLM import torch class ChatGLM4_LLM(LLM): # 基于本地 ChatGLM4 self) -> str: return "glm-4-9b-chat" 在上述类定义中,我们分别重写了构造函数和 _call 函数: 对于构造函数,我们在对象实例化的一开始加载本地部署的 ChatGLM4

    42410编辑于 2025-07-21
  • [大模型]GLM-4-9B-Chat WebDemo 部署

    GenerationConfig import torch import streamlit as st # 在侧边栏中创建一个标题和一个链接 with st.sidebar: st.markdown("## ChatGLM4 之间,默认值为512 max_length = st.slider("max_length", 0, 1024, 512, step=1) # 创建一个标题和一个副标题 st.title(" ChatGLM4

    36810编辑于 2025-07-21
  • 来自专栏啄木鸟软件测试

    多模态大模型技术原理及实战(5)

    •BLIP2-Qformer •Qformer:轻量级Transformer 62亿个参数 基模型:ChatGLM •产生 • KEG 实验室 •智谱 AI •VisualGLM-6B基于 ChatGLM4

    34610编辑于 2024-09-10
  • 来自专栏01二进制

    不用GPT4,如何让你的AI助理更加智能

    2024 年 1 月 16 日,智谱 AI 发布了他们最新的大模型 ChatGLM4,性能全面比肩 GPT-4(乐观计算能达到 GPT-4 九成以上),并且在中文能力上超过了所有竞争对手,长文本能力也一骑绝尘

    83110编辑于 2024-02-17
  • 来自专栏NLP/KG

    LLM 大模型学习必知必会系列(五):数据预处理(Tokenizer分词器)、模板(Template)设计以及LLM技术选型

    比如GPT4(闭源)、Qwen-max(闭源)、Qwen-72b(开源)、ChatGLM4(闭源)等会具有良好的效果,小模型可能需要特殊训练。

    5.4K02编辑于 2024-05-26
领券