首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Soul Joy Hub

    检索式对话——【CIKM 2019】IMN

    《Multi-Representation Fusion Network for Multi-Turn Response Selection in Retrieval-Based Chatbots》

    43620发布于 2021-09-10
  • 来自专栏Soul Joy Hub

    检索式对话——【COLING 2018】DUA

    Multi-turn Conversation with Deep Utterance Aggregation》 本文来自COLING2018, 文章提出, 诸如Multi-view和SMN模型都是将对话历史视为整体 , 或者说每一句对于response都是平等的, 这样做会忽略对话历史的内部特征, 例如一段对话过程经常包含多个主题; 此外一段对话中的词和句的重要性也都不同。 针对这些对话历史中的信息特征, 作者设计了下图所示的DUA模型: 第一部分: 通用的词向量+GRU做embedding 第二部分: 开始着手处理上面提到的对话历史交互问题, 首先虽然history中的句话都对

    42910发布于 2021-09-10
  • 来自专栏Soul Joy Hub

    检索式对话——【ACL 2017】SMN

    《Sequential matching network: A new architecture for multi-turn response selection in retrieval-based chat-bots》

    44720发布于 2021-09-10
  • 来自专栏Soul Joy Hub

    检索式对话——【ACL 2018】DAM

    Selection for Chatbots with Deep Attention Matching Network》 文本对于context和response语义上的联系更进一步,将 attention 应用于对话 ,打破之前的 RNN 和 CNN 结构,在轮上速度快,达到了目前最好效果。

    50730发布于 2021-09-10
  • 来自专栏Soul Joy Hub

    检索式对话——【WSDM 2019】MRFN

    Fusion Network for Multi-turn Response Selection in Retrieval-based Chatbots》 本文的Motivation是建立在最近几年检索式对话基于的面向交互的思想是 作者认为,轮次少的时候可能RNN系列性能的确可以和attention相抗衡,轮次的时候可以理解为当前的回复其实更多与附近的对话相关,与较远的对话关系反而远了,所以对于局部前文信息把握更多的Contextual 可是个人理解,类似“对于局部前文信息把握更多”等轮上下文位置与长度信息是由对v向量输入到GRU后表达出来的,应该与表示层、交互粒度没有太大关系。

    48120发布于 2021-09-10
  • 来自专栏Soul Joy Hub

    检索式对话——【EMNLP 2016】Multi-view

    《Multi-view response selection for human-computer conversation》 本文对一般词级上下文向量,以及对话语级别上下文向量理解,来进行上下文response 作者提供了一种直接的单轮转思路——将问答语句合并为一列, 连接处用_SOS_隔开, 将整个对话历史视为"一句话"去匹配下一句。 将整个对话历史合并为一列, 做word embedding后通过GRU模块提取词汇级特征, 与候选的response做匹配: 不过每次直接把 word embedding sequence 输入网络得到整个对话的表示

    41420发布于 2021-09-10
  • 来自专栏Soul Joy Hub

    检索式对话——【IJCAI 2019】DGMN 基于文档背景的个性化对话

    作者主要的研究的问题是在一定人物设定背景下的对话的个性化: 这里的人物设定被写在一个document中,即document-grounded。

    45620发布于 2021-09-10
  • OpenAI调用接口对话Multi Turn Multi Agent 多角色对话调试和可视化工具Dialogue Visualization

    调用OpenAI对话接口对话可视化前端在线工具伴随着生成式人工智能技术发展,进2年涌现出大语言模型LLM/Agent系统/AI推理等众多方向的技术项目和论文。 其中对话系统,智能体交互是用户通过UX界面和AI系统进行交互,这种交互有时候也是模态(用户输入文字/语音/图像)等等。 在调用OpenAI 的对话接口时候,有时候需要把对话结果打印出来检查是否有bug,JSON数据格式就比较难看出来了,尤其是有多角色的对话。 ,算法研发,学术研究过程中可视化智能体对话 ( Multi-Agent Multi-TurnDialogue Visualization)。 1.1 以一个OpenAI的API产出对话为例对话轮流调用OpenAI的AI,获取对话返回结果,包含了两个key: 'role'和 'content',最终得到一个对话结果的list的json格式

    2.1K10编辑于 2024-10-11
  • 来自专栏我还不懂对话

    对话对话状态追踪综述

    数据 研究任务型对话系统,首先得从数据集采集说起,关于数据之前文章介绍过了,这里就不详细介绍了,参考: 百川:【对话】任务型对话数据集和采集方法 用户建模 用户模拟器是在任务型对话场景中, 用于模拟用户在指定目标下对话过程,可以用于生成对话数据,以及通过强化的方式训练系统决策。 (画像);3)任务的schema;4)数据库or API。 下面主要介绍对话状态最终的一些方法,主要包含以下内容: 会话状态跟踪 对话状态定义:对话一个会话状态S_t,它包含知道前当前轮次t的对话历史的总结,S_t中包含了系统选择下一步action的所有信息 NBT&NBT2 之前也介绍过NBT,这里就不啰嗦了,参考: 百川:【对话】任务型对话状态跟踪-NBT原理 GLAD 2018Global-Locally Self-Attentive Dialogue

    98210编辑于 2024-04-09
  • 来自专栏我还不懂对话

    对话对话状态追踪技术综述

    数据研究任务型对话系统,首先得从数据集采集说起,关于数据之前文章介绍过了,这里就不详细介绍了,参考:任务型对话数据集和采集方法用户建模用户模拟器是在任务型对话场景中,用于模拟用户在指定目标下对话过程 之前也分析过微软开源的规则版用户模拟器代码,这里就不赘述了,可以参考:【对话】从微软源码看用户模拟器构建。 无论是规则还是模型版本用户建模,其一般输入包含:1)对话历史;2)用户profile(画像);3)任务的schema;4)数据库or API。 下面主要介绍对话状态最终的一些方法,主要包含以下内容:[企业微信截图_b1350255-8caa-450f-a7b9-379ec5913212.png]会话状态跟踪对话状态定义:对话一个会话状态S_t 之前也介绍过NBT,这里就不啰嗦了,参考:【对话】任务型对话状态跟踪-NBT原理GLAD2018Global-Locally Self-Attentive Dialogue State Trackerglad

    5.4K166编辑于 2022-09-06
  • 来自专栏DeepHub IMBA

    基于 LangGraph 的对话式 RAG 系统实现:检索与自适应查询优化

    实际对话场景要复杂得多——用户的问题可能含糊不清,或者会频繁追问,还经常提些不相关的内容。 这篇文章会展示怎么用 LangGraph 构建一个具备实用价值的 RAG 系统,包括能够处理后续追问、过滤无关请求、评估检索结果的质量,同时保持完整的对话记忆。 但对话场景下会遇到几个棘手的问题:用户问题经常模糊不清或者是追问;检索到的 k 个文档可能压根不相关;还有些问题完全不在系统能回答的范围内。 ,整个过程保留完整对话历史。 生成器 基于检索到的文档和历史对话生成回答。兜底节点 处理超出范围或无法回答的情况。

    66610编辑于 2025-11-15
  • 来自专栏我还不懂对话

    对话】任务型对话数据集如何采集

    研究任务型对话系统,首先得从数据集采集说起,学术界需要公开的数据集来证明模型的效果,工业界更需要以数据集为基础来构建更鲁棒的对话系统,那么业界成熟的对话系统数据集有哪些呢,对于,如何更科学的采集数据减少错误呢 这是出发点,采集过程中会告诉标注人员用户目标,然后标注人员开始与系统对话,这里的系统也是一个人,然后两个人对话生成对话流。一句话就是human2human。 样例: https://colips.org/workshop/dstc4/data_sample_pilot.htmlDSTC4/5 :人人交互,旅游信息查询,dstc5在4的基础上增加了多语言。 and Managing Complexity in Task-Oriented Dialogue, (3) Audio Visual Scene-Aware Dialog Track, and (4) Scalable Multi-Domain Conversational Agents: The Schema-Guided Dialogue Dataset中文千言2020 CCF BDCI 千言:技能对话

    3.5K102编辑于 2022-09-06
  • 来自专栏机器之心

    GPT-4在97对话中探索世界难题,给出P≠NP结论

    NP 问题的试点研究表明,GPT-4 成功地生成了一个证明模式,并在 97 轮对话回合中进行了严格的推理,得出「P≠ NP」的结论,这与(Xu 和 Zhou,2023)结论一致 。 GPT-4 成功地生成了证明模式,并在 97 个对话回合中进行了严格的推理,得出了 P ≠ NP 的结论,与 Xu 和 Zhou (2023) 最近的工作一致。 NP 问题的对话示例。案例研究中使用了 GPT-4 API,此外,本文还根据轮次索引对流程进行排序。 探索过程中,本文引入了五个不同的角色(例如,精通概率论的数学家)作为辅助证明者。 完成这项实验总共进行了 97 轮对话,分为前 14 论对话和后 83 轮对话。 例如第一提示:你能找到 P!=NP 背后的根本问题吗?从哲学的角度,而不是从计算机理论的角度。 其他提示如下: 之后对话不断进行,最后一对话是这样的:最后给出结论 P≠ NP。 感兴趣的读者可以查看原论文,了解更多内容。

    70340编辑于 2023-09-19
  • 来自专栏『学习与分享之旅』

    Spring AI 玩转对话

    本文带你用 Spring AI 一招搞定对话,让你的 AI 应用拥有超强记忆!从 ChatClient、Advisors 到实战编码,三步打造一个能记住上下文的智能历史专家。 JdbcChatMemory, CassandraChatMemory, Neo4jChatMemory:持久化存储,可将对话历史保存在数据库中,适合生产环境。 System.out.println("--- 第一对话 ---"); String message1 = "我叫NEO,我最喜欢的数字是7。" System.out.println("\n--- 第二对话 ---"); String message2 = "我叫什么名字? 测试结果:--- 第一对话 ---我: 我叫NEO,我最喜欢的数字是7。AI: 哈哈,Neo!很高兴认识你!

    1.2K20编辑于 2025-07-07
  • 来自专栏终身学习者

    React造系列:对话框组件 - Dialog 思路

    本文是React造系列第二篇。 UI image.png 对话框一般是我们点击按钮弹出的这么一个东西,主要类型有 Alter, Confirm 及 Modal, Modal 一般带有半透明的黑色背景。 对话框除了提供显示属性外,还要有点击确认后的回放函数,如: alert('你好').then(fn) confirm('确定?'). 显示遮罩 通常对话框会有一层遮罩,通常我们大都会这样写: // dialog/dialog.tsx ... props.visible ? .fui-dialog { position: fixed; background: white; min-width: 20em; z-index: 2; border-radius: 4px

    4K20发布于 2019-06-15
  • 领域对话自动评估技术突破

    自动评估与Alexa的对话随着与Alexa的交互越来越多地涉及对话,Alexa使用这些对话来填充请求的细节或协调多个技能。与所有已部署的AI模型一样,对话模型需要定期评估以确保满足客户需求。 研究人员通常使用每个对话轮次单独评分的训练数据;在逐评估上往往有更多一致性。这是我们先前工作采用的方法。在我们的新工作中,我们同时在逐轮数据和整体用户评估上训练模型。 我们使用注意力机制来加权逐评分对最终评分的贡献。这些权重从数据中学习,并可以跨多个技能和任务泛化。 技术细节在我们的论文中,我们首先考虑使用长短期记忆(LSTM)网络预测逐评分的模型。LSTM按顺序处理序列输入,因此每个输入对应的输出考虑了其前面的输入和输出。 双向LSTM联合预测逐评分和整体对话评分。双向LSTM的输出通过注意力层,该层给予某些对话轮次比其他轮次更大的权重,然后传递到网络的最终层执行分类。

    19210编辑于 2025-10-13
  • 领域对话自动评估技术突破

    自动评估与语音助手的对话交互随着与语音助手的交互越来越多地涉及对话,评估这些对话模型的质量变得至关重要。传统方法依赖人工评估,既缓慢又昂贵。 在自然语言处理实证方法会议上,我们提出了一种基于神经网络的新模型,用于估计用户对对话交互的满意度。技术架构新模型采用双向长短期记忆网络分析交互序列,结合注意力层确定哪些对话轮次对整体满意度贡献最大。 值得注意的是,新模型不依赖特定对话管理器的功能,因此能够泛化到新的对话管理系统。训练方法与传统方法不同,新模型联合训练逐评分和整体用户评估数据,通过注意力机制加权各轮次评分对最终得分的贡献。 技术细节模型首先使用LSTM网络预测逐评分,然后升级为双向LSTM,同时处理逐评分和整体对话评分。双向LSTM的输出经过注意力层加权后传递到网络最终分类层。 训练期间使用加权损失函数结合级评分和整体对话评分。当前工作正致力于扩展模型以考虑个体用户偏好,进一步提升个性化评估能力。

    13710编辑于 2025-10-16
  • 来自专栏我还不懂对话

    对话状态跟踪-NBT原理

    让机器像人一样自由的对话对话机器人必然要具备连续对话的能力,即对话对话不用讲,那么什么是对话状态跟踪呢(DST, dialogue state tracker | belief traker 会话状态(belief state) 那么什么是会话状态(belief state): 对话的每一个时间步的状态表示,由于当前观测状态具有不确定性(asr噪声、nlu不确定、用户表达本身的不确定性),所以 对于上一的系统输出,当前轮次的用户输入,每个slot-value对进行向量表征,转化为向量t,r,c。然后将t和r计算 将当前轮次的状态和上一的历史状态做合并。 2018Fully Statistical Neural Belief Tracking.pdf 上一篇文章,由于通过手工规则更新belief state,导致新领域迁移需要昂贵的手动操作(我觉得也没昂贵 主要改进点在于引入了上一的belief state建模进行联合学习,不在使用规则,其他部分都一样就不在赘述,主要了解belief state的更新机制 Belief State Updates2 One-Step

    1.3K30发布于 2021-11-08
  • 来自专栏朴素人工智能

    Transformer对话改写实践

    本文介绍了对话存在指代和信息省略的问题,同时提出了一种新方法-抽取式对话改写,可以更加实用的部署于线上对话系统,并且提升对话效果。 1 背景 在日常的交流对话中,30%的对话会包含指代词。 前几天有一篇论文介绍中文对话的数据集[crosswoz数据集]。文中提出了一种BertContext nlu的方法利用对话历史向量增强对对话语句的语义理解能力,效果非常好。 对话的数据标注工作是比较困难的,同时该方法对语句中指代槽的提取也无能为力,只能根据对话状态获取。 对于任务型对话,是可以对用户状态进行追踪。然后根据用户状态结合当前用户的输入知道用户的真实目的。 再通过检索信息或者语义理解引擎就可以更好的执行相应的对话策略。 去年有一篇论文介绍对话改写[1],使用的方法是基于PointNetwork的生成方法,利用copy机制取得了很好的效果。 李文雯你爱我吗 | 李文雯是哪位啊 | 她是我女朋友 | 李文雯是我女朋友 | 李文雯是我女朋友 舒马赫 | 舒马赫看球了么 | 看了 | 舒马赫看了 | 舒马赫看球了 4

    3K40发布于 2020-05-07
  • 来自专栏AI科技评论

    VPGTrans:10% 的成本定制你自己的类 GPT-4 模态对话模型

    最近的模态(对话)大模型将基于文本的ChatGPT的强大能力扩展到了模态输入,实现强大的模态语义理解,比如最近的GPT4、BLIP-2、Flamingo等。 极低训练成本: 通过我们提出的VPGTrans方法,可以快速(少于10%训练时间)将已有的模态对话模型的视觉模块迁移到新的语言模型,且达到类似或更优效果。 开源模态对话模型: 我们开源了VL-Vicuna,类GPT4模态对话模型,可实现高质量的模态对话: 图 2:VL-Vicuna的交互实例 1 动机介绍 1.1 背景 2023年是AI元年,以ChatGPT 其中VL-Vicuna实现了类GPT4的高质量的模态对话。 其中VL-LLaMA的效果如下: 表3:VL-LLaMA的效果展示 同时,我们的VL-Vicuna可以进行类GPT4模态对话

    73320编辑于 2023-05-12
领券