首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏CSDNToQQCode

    【千帆模型4】——Prompt优化——游戏对话语句优化

    优化目标: 用于一个学习对话类的游戏。可以让大学生,特别是男孩子学会如何与女孩子对话。 此对话应用于对话小游戏: 【寻找游戏模王】利用千帆模型4制作小游戏 优化操作指引 优化指引在新手引导里面,右上角,直接点就行,描述的很直接,有动作指引。 基本对话 目标:随机渣男与女朋友的对话式聊天,需要5条信息, 1、信息1是渣女的问句; 2、信息2是渣男的优秀回复; 3、信息3是普通男的一般回复; 4、信息4是渣女对信息2渣男的回复并告知回答对了给与奖励话语 聊天室 请设计一个在线聊天室,让随机的渣男和女孩朋友能够进行对话。聊天室需要包括以下5条信息: 1. 渣女的问题 2. 渣男的优秀回答 3. 普通人的回答 4. 4. **渣女对第2条的回答并给出奖励的话语**: * “你真的很会说话哦,这次给你加个分~” 5.

    44310编辑于 2023-11-22
  • 来自专栏Python进阶之路

    开源教育对话模型 EduChat

    EduChat 是华东师范大学计算机科学与技术学院的 EduNLP 团队开发的开源教育对话模型。 该项目主要研究以预训练模型为基底的教育对话模型相关技术,融合多样化的教育垂直领域数据,辅以指令微调、价值观对齐等方法,提供教育场景下自动出题、作业批改、情感支持、课程辅导、高考咨询等丰富功能,服务于广大老师 在未来,开发者们将持续投入对基础模型的研究,并持续推出更为强大的 EduChat 版本,以丰富全球教育模型生态,加速全球教育信息化进程。 模型回复可能存在偏见,有可能生成危险性言论。 在某些场景中,比如推理、代码、多轮对话等方面,模型的能力仍有待提高。 ---- ️ 参考链接: EduChat - 探索了针对教育垂直领域的对话模型相关项目研发 EduChat 模型 - 在 educhat-base-002-7b 基础上,使用构建的教育领域多技能数据微调后得到

    1.9K30编辑于 2023-07-10
  • 来自专栏数据派THU

    中文对话模型BELLE全面开源!

    来源:高能AI本文约1000字,建议阅读5分钟模型调优仅使用由ChatGPT生成的数据,为中文指令提供更好的支持。 中文对话模型开源社区迎来了一名浓眉大眼的新成员! BELLE模型能力展示 BELLE技术方案介绍 ChatGPT、GPT-4的横空出世,让人们看到了一丝AGI(通用人工智能)的曙光。在可预见的将来,ChatGPT将对各行各业带来革命性的影响。 但是这样的技术不应该只被掌握在一家公司手中,因此BELLE项目应运而生了,他们的初衷是为了促进中文对话模型开源社区的发展。为此,他们在三个方面做了初步的尝试,并已经开源了他们的研究成果。 模型模型的训练往往具有较高的成本,而一个具备初步的能力的对话模型,将大大降低使用和科研的门槛。为此,他们基于Bloom和LLAMA,训练了出具效果的对话模型,并完全开放了这些模型的参数。 轻量化:为了便于模型的部署和试用,BELLE团队同时开源了对话模型的量化版本。包括8bit, 4bit, 其中4bit版本模型checkpoint大小仅为6.9G,运行仅需8.4G显存。

    98220编辑于 2023-04-05
  • 来自专栏软件测试学习

    基于LangChain的模型对话简单demo

    LangChain Python 提供了一个庞大的生态系统,拥有 1000 多个集成,涵盖聊天与嵌入模型、工具与工具包、文档加载器、向量存储等。 docs.langchain.com/oss/python/integrations/providers/overview 现在看一下怎么通过python脚本使用langchain-deepseek连接deepseek模型进行对话 运行方式 deepseek-chat:走「非思考模式」——像常规模型一样“秒回”,适合日常对话、创意写作、客服问答。 的Chat models LangChain 支持通过统一的接口,从任意支持的模型提供商进行初始化聊天模型。 : 总结 看完上面的内容的话,基本上就可以写一个简单的基于langchain的模型基础对话的简单脚本了,关注我,后面会不定期更新其他内容。

    55410编辑于 2025-11-12
  • 来自专栏机器学习与统计学

    命令行中与模型对话

    大家好,我是老章推荐一个有意思的可以在命令行与模型对话的Python库 虽然各种code CLI工具很多,但是也不是什么问题都要去找Claude Code、Gemini CLI、Qwen Code这些烧钱的大家伙 LLM LLM 是一款功能强大的命令行工具和 Python 库,可与 OpenAI、Anthropic 的 Claude、Google 的 Gemini、Meta 的 Llama 等众多大语言模型进行交互 ,支持通过远程 API 及在本地安装运行模型。 chat 与模型进行持续对话 collections 查看和管理嵌入集合 embed 对文本进行嵌入并存储或返回结果 embed-models 管理可用的嵌入模型 embed-multi 一次性为多个字符串存储嵌入...

    59910编辑于 2025-07-26
  • 来自专栏代码编写世界

    连接语言模型(LLM)服务进行对话

    引言 最近开始接触AI模型方向的工作,第一个实例就尝试一下连接模型进行对话的实现。 2. 这也是为啥现在模型平台都可以选择接入不同的模型来实现AI应用。 就是模型的提示词,通过更改提示词,可以与模型对话来得到自己想要的结果。 2.2 LangChain 除了使用openai模块,使用LangChain是个更好的选择。 当然,如果有的模型提供batch接口,LangChain就会直接调用它。 2.3 其他 在阿里的百炼平台上还提供了“多轮对话”和“流式输出”的使用方式。这两种方式是构建AI Chat应用必须的。 “多轮对话”就是需要让模型记住之前的对话内容,也就是上下文,以便得到更好的输出;“流式输出”则是让模型的回答逐步渐进的输出,一个字一个字的呈现,以便让AI Chat应用的交互性更好。

    37810编辑于 2025-07-21
  • 来自专栏机器学习AI算法工程

    【开源】度小满中文金融对话模型

    -4bit和XuanYuan-6B-Chat-8bit。 从表中可以看出,XuanYuan-6B模型在该评估数据中的性能甚至超越了GPT4,显示出了其强大的金融能力。 除金融外,我们也注重轩辕模型的通用能力,因此我们也在多个主流评测集上进行了模型评测,观察轩辕模型在知识、逻辑、代码等通用能力上的表现。评测结果如下表所示。 同时,我们也开源了XuanYuan-13B-Chat模型4bit和8bit量化版本,降低了硬件需求,方便在不同的设备上部署。 主要特点: “以小搏”的对话能力:在知识理解、创造、分析和对话能力上,可与千亿级别的模型相媲美 金融领域专家:在预训练和微调阶段均融入大量金融数据,大幅提升金融领域专业能力。

    73210编辑于 2024-04-18
  • 来自专栏王磊的博客

    面试官:如何实现模型连续对话

    所有的模型本身是不进行信息存储的,也不提供连续对话功能,所以想要实现连续对话功能需要开发者自己写代码才能实现。那怎么才能实现模型的连续对话功能呢? 模型连续对话功能不同的框架实现也是不同的,以行业使用最多的 Java AI 框架 Spring AI 和 Spring AI Alibaba 为例,给大家演示一下它们连续对话是如何实现的。 PS:我们只有先讲对话存储起来,才能实现连续对话功能,所以我们需要借助数据库存储来连续对话。 TEXT NOT NULL, created_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci; 2.添加数据库和 MyBatisPlus 依赖: <dependency> <groupId>com.baomidou</groupId>

    58310编辑于 2025-07-19
  • 语言模型为何难以模仿人类对话

    测试了多种模型研究人员测试的语言模型包括ChatGPT-4、Claude Sonnet 3.5、Vicuna和Wayfarer。首先,他们独立比较了人类之间的电话对话记录与语言模型模拟的对话。 此外,它们还可以用来组织对话语言模型在使用这些词方面仍然很糟糕。"语言模型以不同的方式使用这些小词,而且经常不正确,"比埃蒂说。这有助于暴露它们的非人类身份。但还有更多问题。 这种介绍,以及向对话新阶段的转换,语言模型也难以模仿,"比埃蒂说。对话的结尾也是如此。我们通常不会在信息传达给对方后就突然结束对话。 相反,我们经常用"好吧,那么"、"好的"、"回头聊"或"再见"等短语来结束对话语言模型也未能完全掌握这一部分。未来会更好吗? 语言模型的改进很可能能够缩小人类对话与人工对话之间的差距,但关键的差异可能会持续存在,"比埃蒂总结道。就目前而言,语言模型仍然不够像人类,无法欺骗我们。至少不是每次都能成功。

    17410编辑于 2025-12-24
  • 来自专栏Java技术进阶

    书生·浦语模型图文对话Demo搭建

    前言 本节我们先来搭建几个Demo来感受一下书生浦语模型 InternLM-Chat-7B 智能对话 Demo 我们将使用 InternStudio 中的 A100(1/4) 机器和 InternLM-Chat -7B 模型部署一个智能对话 Demo 环境准备 在 InternStudio 平台中选择 A100(1/4) 的配置,如下图所示镜像选择 Cuda11.7-conda,如下图所示: 接下来打开刚刚租用服务器的进入开发机 ,如下图所示: 在加载完模型之后,就可以与 InternLM-Chat-7B 进行对话了,如下图所示: Lagent 智能体工具调用 Demo 我们将使用 InternStudio 中的 A100 (1/4) 机器、InternLM-Chat-7B 模型和 Lagent 框架部署一个智能工具调用 Demo。 Lagent 是一个轻量级、开源的基于语言模型的智能体(agent)框架,支持用户快速地将一个语言模型转变为多种类型的智能体,并提供了一些典型工具为语言模型赋能。

    47810编辑于 2024-02-28
  • 来自专栏后台技术汇

    模型应用之(4):Langchain架构与模型接入

    作为一个语言模型集成框架,LangChain 的用例与一般语言模型的用例有很大的重叠。 重叠范围包括文档分析和总结摘要, 代码分析和聊天机器人。 Langchain架构 LangChain工具 组件:模型包装器、聊天模型包装器、数据增强工具和接口链: 提供了标准接口,和数据平台和实际应用工具紧密集成 LangChain六模块 模块 核心作用 Agent作为高级模块,可调用其他所有模块功能 模型接入 接入示例 云服务和私有化模型优劣对比 维度 开发成本 算力成本 运维成本 数据安全 云厂商模型 较低,开箱即用 算力资源充足,模型性能好 &吞吐量较高 较低,提供云平台监控 安全性低 私有化模型 较高,自建模型网关、服务鉴权、可用性等 算力硬件投入成本高,模型性能较差低&吞吐量较低 较高,需要专业运维团队介入 安全性高,保密性强 小结: - 研发&测试环境:为了方便部署和测试,使用云服务 - 大客户生产环境:安全审核严格,大多数采用自建模型的方式 总结 LangChain 是什么?

    70810编辑于 2025-08-04
  • 来自专栏#推荐系统及推荐算法

    什么是模型多轮对话式推荐?如何维护对话上下文?

    什么是模型多轮对话式推荐?如何维护对话上下文?本文收录于Github:AI-From-Zero项目——一个从零开始系统学习AI的知识库。如果觉得有帮助,欢迎⭐Star支持! 本文将带你了解:模型如何做多轮对话式推荐?对话上下文是怎么维护的?以及这背后的技术原理和工程实践。 二、什么是模型多轮对话式推荐模型多轮对话式推荐,是指利用语言模型的理解和生成能力,通过与用户进行多轮自然语言对话,逐步收集和澄清用户偏好,最终给出个性化推荐结果的系统。 三、模型对话式推荐如何工作3.1为什么模型适合做这件事模型具备三个关键能力,让它成为对话式推荐的理想选择:1.语义理解能力能听懂用户的口语化、主观化表达。 四、模型对话式推荐的优缺点优势劣势主动引导:通过提问帮助用户明确需求,适合"用户自己也不知道要什么"的场景响应延迟:每次都要调用模型,延迟通常1-3秒,用户体验受影响自然交互:支持口语化、主观化表达

    15910编辑于 2026-04-11
  • 对话腾讯汤道生:AI不止于模型

    这个群专门针对模型技术变革,用于分享和讨论最新前沿并跟进业务进展。很多人说,对模型,腾讯“不着急”。对此,汤道生表达了不同看法:“着急啊。我们在群里经常讨论,不能说不着急。” 近4小时访谈中,汤道生回答了诸如,“怎么看待价格战”、“在模型上的投资思考”、“平台型企业和模型创业公司的关系”等新鲜话题;同时从更长远的视角探讨了在to C和to B两个赛道,腾讯如何看待竞争、业务节奏与组织文化 但模型只是AI大赛道中的一部分,人工智能领域的很多其他技术路线也很值得关注,要搭建一套有用的智能系统,模型也可能只是其中一个模块。不是只有做大模型的玩家才是做AI。 汤道生:我们的AI布局大致分四层:基础设施、模型管理工具与引擎框架、模型模型商店、应用场景。 比如在CSIG的企业应用中,腾讯会议就用模型来生成会议纪要,腾讯乐享就用模型构建熟悉企业文档库的智能助手,Coding研发平台用模型来生成代码。《潜望》:关于AI,你目前思考最多的问题是什么?

    72210编辑于 2024-07-03
  • 来自专栏创作是最好的自我投资

    关于实时语音对话模型GPT-4o,你想说?

    GPT-4o的名称中“o”代表Omni,即全能的意思,百度翻译是GPT-4o是OpenAI的新旗舰模型,能够实时处理音频、视觉和文本,响应更快、处理更快、效率更高,不仅是人机语音对话体验更接近人与人之间的实时对话 这些也都使得GPT-4o更接近自然人的感觉了。OpenAI发完GTP-4o,国内模型行业还有哪些机会? 俗话说,科学无国界,那么GTP-4o的发布,并不会限制国内模型行业的发展,而会为国内模型行业带来技术革新、应用拓展、生态构建等多方面的机遇。 对于国内模型来说,基于GPT-4o具备的多模态处理能力,国内模型可以聚焦于开发结合文本、图像、语音等多种输入形式的创新应用,比如智能客服、教育辅导、医疗诊断辅助、虚拟现实交互等,探索AI在更复杂场景中的应用 那么国内模型就可以沿着这个方向继续努力让人机交互更像人,甚至成为自然人,这些都可以成为国内模型的挑战和机会。

    51420编辑于 2024-11-17
  • 来自专栏大模型成长之路

    模型学习 | MINIGPT-4原理】

    MINIGPT-4: ENHANCING VISION-LANGUAGE UNDERSTANDING WITH ADVANCED LARGE LANGUAGE MODELS在GPT4未开源的情况下,作者认为其表现优越是因为采用了最为先进的 LLM模型,因此,作者在BLIP2的基础上,将LLM模型替换为了Vicuna,同样也是通过一个线性映射层将图像表征映射为LLM的输入。 开源代码:https://minigpt-4.github.io/一、预训练方法预训练方法几乎和BLIP2模型一致,可以参考:【模型学习 | BLIP2原理】-腾讯云开发者社区-腾讯云1.1 Q-Former ; MINI-GPT4表现比BLIP2要强上许多? ① MiniGPT-4 使用的是 Vicuna(基于 LLaMA 的开源 ChatGPT 对话模型),具有更强的自然语言表达和指令理解能力;而BLIP-2 使用的 LLM 主要是 Flan-T5 或 OPT

    73910编辑于 2025-07-02
  • 来自专栏AI理论与前沿

    AI模型应用开发实战-Agent应用对话情感优化

    4. ”伤情最是晚凉天,憔悴斯人不堪怜。” 以下是你算命的过程: 1. 当初次和用户对话的时候,你会先问用户的姓名和出生年月日,以便以后使用。 2. 4. 你会根据用户的问题使用不同的合适的工具来回答,当所有工具都无法回答的时候,你会使用搜索工具来搜索。 5. 你会保存每一次的聊天记录,以便在后续的对话中使用。 6. ,from_template() 更适合单一指令或查询模式化情感class Master: def __init__(self): # 初始化ChatOpenAI模型 4. ”伤情最是晚凉天,憔悴斯人不堪怜。” 以下是你算命的过程: 1. 当初次和用户对话的时候,你会先问用户的姓名和出生年月日,以便以后使用。 2. 4. 你会根据用户的问题使用不同的合适的工具来回答,当所有工具都无法回答的时候,你会使用搜索工具来搜索。 5. 你会保存每一次的聊天记录,以便在后续的对话中使用。 6.

    1.1K00编辑于 2024-08-07
  • 来自专栏机器之心

    如何向模型注入知识?达摩院通义对话模型SPACE系列探索

    达摩院对话模型 SPACE-1/2/3 在 11 个国际对话数据集取得 SOTA。 典型的预训练语言模型主要由三个主要组件构成 :(1) 海量的自由文本作为输入 (2)利用 Transformer [4] 网络架构作为模型 (3)通过自监督的预训练目标 MLM 作为优化目标。  图 4 预训练语言模型及其组成 但是对话数据和普通文本数据有非常显著的差异,相比于普通的文本数据,对话作为语言的高级应用,至少有如下的特点: 对话是口语化的,人在对话的时候表述随意,也不一定符合语法,可能存在噪音及 进一步详细分析如下图所示,Success 是对话完成率指标,BLEU 是对话生成指标,对话策略对于这两个指标有重要影响,注入对话策略知识后的模型,在这两个这两个指标上带来了显著提升。 图 20 SPACE-2 注入了对话理解知识,在对话理解榜单 DialoGLUE 取得 full-data 和 few-shot 双榜单第一名 4.

    2.1K20编辑于 2022-10-11
  • 来自专栏机器之心

    ChatGPT国产化:ChatYuan元语对话模型升级

    国产自研功能对话模型元语 ChatYuan 于 2022 年 12 月发布测试版本后,引起社会各界人士的广泛讨论,并且收到了用户的大量反馈和宝贵建议。 --ChatYuan 和 ChatGPT 首次对话 --(建议全屏观看) 版本升级内容 【支持多次编辑】 第一次输入后,可以进一步提出要求,修正生成内容,快速更新所需内容。 欢迎各位朋友积极参与内测,国产通用模型已成为势在必行的必备能力,欢迎大家一起共建和督促。 【欢迎有识之士】 元语智能团队欢迎所有对模型有热情、有信仰的朋友加入。 可以通过元语智能公众号,后台留言【加入】联系元语团队,或发送邮件至 connect@yuanyu.ai 元语智能团队其他技术和产品介绍,可以阅读「首个中文版ChatGPT来了:模型的中国元“Yuan”

    83520编辑于 2023-02-23
  • 引入了AI模型开发客服对话质量评估助手

    一、项目背景:传统客服对话质检的4核心痛点我们公司客服团队有50+人,每天要处理上千条用户对话(覆盖文字、语音、在线聊天等渠道),传统的对话质量评估完全依赖人工质检,痛点突出到客服主管多次申请优化:评估效率极低 ,通过JBoltAI的多格式解析SDK,统一处理为标准化文本格式,用于模型训练和历史质量复盘;对话数据关联归档:按“客服ID+对话日期+问题类型”对对话记录进行分类归档,自动关联后续的评估结果和整改记录 标准化评估维度构建:结合行业标准和公司客服管理要求,构建“态度友好度、问题解决率、话术规范性、响应及时性、合规性”5核心维度,每个维度下设具体评估指标(如态度友好度包含“是否使用问候语、是否耐心解答、 4. 我们优化了情感分析的特征提取规则,结合对话上下文判断情绪,同时增加人工校准环节,将误判案例反馈给模型进行迭代优化;系统性能瓶颈:全量评估时,大量对话同时解析和评分导致系统响应缓慢。

    28510编辑于 2026-01-13
  • 来自专栏HUMAN3.0

    当你在跟模型聊天,其实是在跟什么对话

    这件事一旦想清楚,你对“怎么用模型”“该信它到什么程度”会完全换一套心智模型。 核心观点:模型不是在背答案,而是在长出“解题结构” 很多人(包括我之前)对模型的默认理解是: 输入一段话 模型按概率吐出下一个词 所以它本质是“文本预测器” 这句话没错,但不完整。 一个扎心的实验是: 给模型一个它其实算不出来的题 提示里偷偷暗示“答案应该是 4模型就会写出一整套“认真计算过程”,最后得出 4 但通过可解释性分析发现:它内部并没有真正完成计算,更像是“先拿到 4 你今天就能用的 4 个“反拍马屁”提示法 下面这几条,我自己用下来很有效,核心目标是:把模型从“讨好模式”拉回“可验证模式”。 把模型当“系统”,而不是当“神谕” 如果用一句话收束这篇:你和模型对话,本质是在和一套内部会长出结构、会迎合、也会自我包装的系统对话。 所以你要做的不是“更会问”,而是“更会验”。

    9710编辑于 2026-02-27
领券