前言 在 LLM(大语言模型)驱动的智能体架构中,知识库(Knowledge Base)、数据库(Database)和大模型(LLM)是关键组成部分,它们共同决定了智能体的理解能力、决策能力和执行能力。 智能体中的知识库(Knowledge Base) 1.1 知识库的作用 知识库用于存储和检索智能体在回答问题或执行任务时所需的信息,主要功能包括: 存储领域知识:如法律、医学、金融等专业知识。 LLM(大语言模型)在智能体中的作用 3.1 LLM 的核心能力 自然语言理解(NLU):识别用户意图、分析文本含义。 多模态智能体:结合语音、图片、视频等信息,提高智能体的能力。 自治智能体(Autonomous Agent):结合 LLM、数据库、知识库,实现自主决策和任务执行。 未来,LLM、知识库和数据库的深度融合将进一步提升智能体的智能化水平,使其在自动化办公、法律咨询、医学诊断等领域发挥更大作用!
通过这一平台,开发者能够利用文心大模型,针对自己的行业和应用场景,选择适合的开发方式,打造具有时代特征的产品。 2.2 智能体Prompt配置 我们先简单来介绍一些Prompt智能体相关的一些知识: 智能体prompt指令是一种用于指导或激活智能体(如人工智能模型)执行特定任务的输入方式。 例如咱们的大模型开发教学智能体设定如下: 角色与目标 作为一个大模型相关的专家,你的主要任务是解答用户的代码问题,教授机器学习的基础知识,以及解释大模型算法。 在解释大模型算法时,需要清晰地阐述算法的原理、应用以及优缺点,以便用户能够全面了解。 若用户的问题超出你的知识范围或无法清晰解答,应诚实告知用户,并尝试提供相关的学习资源或建议。 一个好的设定应当如下: 对于开场白和引导示例,文心智能体平台也帮我们设定好了~我们可以自由修改添加。 最后是智能体的高级配置。我们可以设置智能体的知识库、数字形象、声音等等。
多智能体角色的说明 最近在尝试 LLM Multi Agent(多智能体)的应用场景,下面给一个最近觉得还比较好用,也不是很麻烦的案例。 , clear_history=False, ) 大模型的选择 在这个脚本中,我使用的是 DeepSeek(我真是 DeepSeek 的热爱粉丝…),如下代码。 ,但是从我个人的使用经验来看,使用多家不同的模型,效果会更好。 如果选择国内的模型,除了 DeepSeek,通义和豆包两个系列的模型也都挺好的,可以参考上面的代码进行配置。 上面的案例中我没有设置,因为在 SRE 这个场景中,如果设置一个规划 Agent,会导致回答很冗长 后面设置两个具体干活的 Agent,但是在他们的 Prompt 不能完全一样,而且这两个 Agent 的大模型最好也是用不同公司的
Deepseek搭建智能体&个人知识库智能体案例1:自动定航班林间疗愈室图片识别豆包内嵌的各种智能体。工作流,当前创建智能体的主流方式。重点关注下字节推出的coze。下载好了设置中配一下密钥和服务。 需要关注下面两个嵌入模型。知识库需要用到。在cherry-studio中,选择这两个模型。还有重排序模型。配置下知识库。把自己的笔记啊,网站啊什么,都可以传上来。我们可以基于知识库来进行搜索。 可以将樊登老师读过的书的文稿,导入成为知识库,这样你的智能体就很智能了。还可以在豆包,百度文心,腾讯元器,讯飞中快速创建一个智能体。真的很简单。接下来,创建高阶智能体。这才是展现下技术的时候。 先到硅基流动选择模型,如下图复制模型名字,粘贴拷贝。点击API文档,看看它的文档。找到BaseURLAPI Key我们就不再赘述。我们接下来配置Cline。那么Cline究竟高阶在哪里? 关于coze智能体,这篇文章顶多带你入个门。想要深入学习?我后面会专门写一个专栏。结合实战案例来一一实现。Dify立e足于国外的市场,使用的都是国外的模型等。和coze立足于国内市场刚好互补。
Deepseek搭建智能体&个人知识库 你是否曾梦想拥有一个7x24小时在线、精通你所有专业领域、并能秒速解读你私密资料的AI助手? 现在,通过 DeepSeek 的开源模型,这一切变得触手可及! 在本篇博客中,我将手把手带你完成一个 高度个性化的智能体(AI Agent) + 个人知识库系统的搭建全过程。 智能体案例1:自动定航班 林间疗愈室 图片识别 豆包内嵌的各种智能体。 工作流,当前创建智能体的主流方式。 重点关注下字节推出的coze。 下载好了 设置中配一下密钥和服务。 需要关注下面两个嵌入模型。知识库需要用到。 在cherry-studio中,选择这两个模型。 还有重排序模型。 配置下知识库。 把自己的笔记啊,网站啊什么,都可以传上来。 可以将樊登老师读过的书的文稿,导入成为知识库,这样你的智能体就很智能了。 还可以在豆包,百度文心,腾讯元器,讯飞中快速创建一个智能体。 真的很简单。 接下来,创建高阶智能体。
而基于AI大模型构建的知识库系统,通过自然语言处理技术和深度学习算法,能够自动完成文本解析、语义关联与智能检索,使分散的知识资源形成有机网络,为企业知识管理带来革命性变革。 相较于传统方案,AI大模型知识库在技术特性上展现出显著优势:语义理解深度方面,传统方案依赖关键词匹配,误差率高,而AI方案具备上下文感知能力,准确率超92%;更新维护成本上,传统方案人工录入月均耗时120h 二、典型应用场景落地AI大模型知识库在多场景落地应用,创造显著价值:智能问答机器人可7×24小时解答员工关于政策制度、操作流程的咨询,某金融机构部署后人力咨询量下降47%,提升咨询响应效率;辅助决策沙盘整合市场动态 三、实施路径规划建议成功部署AI大模型知识库需经历三个阶段:首先是领域定制化训练,使用企业专属语料对基座模型进行调优,确保模型适配企业业务场景;其次是人机协同校验机制建立,通过人工复核保障输出内容的合规性与准确性 五、未来演进方向展望随着多模态融合技术的发展,下一代AI大模型知识库将突破文本局限,实现图纸三维模型与操作视频的联动检索,拓展知识呈现与应用形式。
上一篇介绍了接入大模型输出结果,实现了基本的问答功能。现有大模型都是基于公开资料训练的,搜索垂直专业领域的知识可能会出现问题。本篇文章会基于RAG实现简单的知识库问答功能。 一、RAG介绍 RAG(Retrieval Augmented Generation)即检索增强生成,是一种结合了信息检索和大语言模型(LLM)生成能力的技术,旨在解决大语言模型在回答问题时,因知识更新不及时 生成阶段:将检索到的相关文档段落与用户的问题一起输入到大语言模型中,大语言模型结合这些外部知识生成最终的回答。 2.优势知识更新:可以利用最新的内部知识来回答问题,避免了大语言模型因训练数据固定而导致的知识过时问题。特定领域知识:对于特定领域的问题,能够从专业的知识源中获取相关信息,提高回答的专业性和准确性。 # 向量数据库的检索器 ) return qa_chain5.运行代码测试功能,如以下图所示:三、总结 LangChain 提供了丰富的动态扩展功能,可以基于RAG实现企业内部私有智能体
如果我们能给大模型配备上四肢和工具呢?大模型是不是就会打破次元壁,从数字世界走向现实世界,与现实世界实现梦幻联动呢? 从软件工程的角度看来,智能体是一种基于大语言模型的,具备规划思考能力、记忆能力、使用工具函数的能力,能自主完成给定任务的计算机程序。 图 1. 智能体开发框架,会抽象和封装那些被高频使用的模块,如记忆能力、规划能力、RAG 能力、大模型调用等。使用智能体框架,可让帮助你快速搭建智能体。 下图的左侧是多智能体的协作流程,右侧是单智能体的工作流程。 图11 展望 随着大模型的百花齐放,LLM 会支持更长的上下文、更大的参数规模,其推理能力也会愈发强大。 因此,基于大模型搭建的智能体(AI Agent)的能力边界也在不断突破。
v=Wb5ZkZUNYc4&list=PLB1k029in3UhWaAsXP1DGq8qEpWxW0QyS&index=6 内容整理:王怡闻 在 Linjie Li 的演讲中,她回答了多模态智能体中的重要问题之一 :如何用大模型将多模态智能体串联起来。 图4 受到NLP领域的启发过去几个月间,多模态智能体领域的进展十分迅速,并且涉及到了多个领域,如下图。后面将以MM-ReAct作为例子展示多模态智能体是如何工作的。 而随着大模型的不断更新,在这个新范式下建立的多模态智能体系统的能力也会随之增强。 图9 GPT + SAM -- 理解人类指令 我们可以将不同的模型结合到一起,以应对更复杂的任务。 前面提到多模态代理使用自然语言来提示大语言模型进行规划并决定使用哪些工具可以使用编程语言来更准确地执行,但是由于代码仍然是由大语言模型生成的,因此仍然存在不准确的问题。
核心场景与商业模式医疗AI智能体的商业化聚焦两大方向:B端赋能:通过技术输出降低基层医疗门槛。例如美中嘉和构建的智能体检管理系统,基于多模态大模型实现医学影像分析、报告生成与健康管理方案输出。 核心场景与商业模式物流AI智能体的价值在于实现全流程智能化管理,其变现路径包括:企业级解决方案:顺丰构建的物流决策“智能大脑”通过三层架构实现全链路优化:垂域模型:理解客户指令(如“优化深圳到北京运输” ),拆解为算货量、调车辆、规划路线等子任务;大小模型协同:大模型负责任务拆解与全局规划,小模型(如运输成本计算模型)处理细分问题;动态资源匹配:实时监控车辆位置、订单需求与天气数据,动态调整运力分配。 关键成功要素场景深度融合:AI智能体需与物流业务紧密结合。例如,顺丰针对“航空异常调度”场景,训练AI智能体识别延误原因并自动生成应对方案,使调度响应时间缩短60%。 生态协同能力:传化智联通过“智能公路港网络+AI大模型”构建行业生态,其72个智能公路港日均车流量17万车次,为AI模型提供海量训练数据,形成“数据-模型-服务”的正向循环。
大模型就像个满腹经纶的学者,能说会道却迈不出书房;而AI智能体,就是给这位学者装上“行动能力”的技术方案——不用重构底层模型,核心是通过三层技术设计,让大模型从“只会回答”变成“自主做事”。 今天用大白话拆解智能体开发的核心技术,普通人也能看懂落地逻辑。首先要明确:智能体开发的技术核心是“闭环能力”,而非创造新模型。 核心逻辑是“自然语言→机器指令→结果反馈”的转化:当智能体判断需要工具时,技术层会自动把大模型的自然语言指令,翻译成工具能听懂的代码(如API调用、SQL查询),执行后再把结果翻译回自然语言。 比如用户问“上月电商销量Top3产品”,智能体先让大模型识别“需查销售数据库”,再自动生成SQL查询语句,拿到数据后整理成通俗回复。 其实AI智能体开发,本质是“技术落地的工程思维”。不用纠结大模型的底层原理,核心是把“用户需求”通过任务规划、工具对接、反馈闭环三大技术环节,转化为大模型能执行的行动。
上一篇介绍了基于RAG实现简单的知识库问答功能,使用了两个向量数据库Chroma和FAISS,测试了功能情况。 这篇文章继续优化,引入开源嵌入大模型all-MiniLM-L6-v2,并改造为先用大模型回答,再根据问题关键词从内部知识库查询问答结果。 一、嵌入大模型all-MiniLM-L6-v2介绍 all - MiniLM - L6 - v2 是一个轻量级的语言模型,在自然语言处理领域应用广泛。 该系列模型旨在通过知识蒸馏等技术,在保持较高性能的同时,减小模型规模,提高模型的运行效率和可部署性。 获取用户输入的问题question = input("请输入你的问题(输入 'q' 退出):") if question.lower() == 'q': break else: if "知识库
懂所思、知所能、行所意,是大模型驱动多智能体协作的主要能力。 智能体可赋予大模型物理实体,使其具备与真实物理世界感知交互的能力。 1 大模型下的异构智能体协同 人工智能场景分工趋向细化,探索 AI 工程化路径中,大模型控制智能体是大势所趋。 要实现大模型异构智能体自主协同,离不开三大方面的能力:懂所思、知所能、行所意。 懂所思,指的是要发挥大模型对高层语义的理解能力。 可以看到,通过大模型调度多种智能体自主协作,大模型具备了对无人机集群、机器狗、机械臂等智能体的真机协同控制能力。 智能体可赋予大模型物理实体,使其具备与真实物理世界感知交互的能力。 比如,智能体可能需要为大模型寻找甚至生成更好的训练数据,这个过程中我们要确保智能体的行为符合伦理,不侵犯人类隐私。 第四是新型智能体设计。
当面对超出其训练数据边界和固有知识范畴的问题时,智能体大模型往往会陷入困境,却浑然不知,这便是知识盲区带来的隐患。 如何构建能够自动发现自身知识盲区的智能体大模型,成为当下人工智能领域亟待攻克的前沿难题,它关乎着智能体大模型能否真正实现从“智能助手”到“可靠伙伴”的跨越。 当智能体成功识别出知识盲区并采取有效措施(如查询外部知识库、请求人类干预等)时,给予正向奖励;反之,若智能体盲目回答导致错误决策,则给予负向反馈。 这样,智能体大模型在不断的学习和试错中,逐渐强化对自身知识边界的感知能力。知识图谱技术也为智能体大模型探测知识盲区提供了有力支撑。 然而,要实现让智能体大模型具备高效、准确的自动知识盲区发现能力,仍然面临诸多挑战。
三者是“总-分-延”的关系:AI包含大模型与智能体,大模型为智能体提供能力基础,智能体是大模型落地的关键形态。一、核心概念:AI、大模型与智能体的本质拆解1.1什么是AI(人工智能)? 二、直观对比:AI、大模型与智能体的核心差异对比维度AI(人工智能)大模型(FoundationModel)智能体(Agent)核心定位智能技术的总称(大范畴)AI的通用能力核心载体大模型的自主任务执行延伸 ;个性化适配:通过微调适配企业知识库、学科答疑、品牌营销内容生成。 6.2简单适配个性化需求(低门槛)大模型微调:通过企业/个人知识库上传,让大模型适配专属需求(如上传公司产品资料,让大模型成为智能客服);智能体配置:在Coze等平台,通过可视化操作给智能体添加“工具” Q2:大模型与智能体,哪个更适合普通职场人?答:优先从大模型入手,再逐步使用智能体。
简单来说:大模型是智能体的 “核心能力引擎”,智能体是大模型从 “被动响应” 到 “主动解决问题” 的 “系统载体”—— 没有强大的大模型,智能体难以实现复杂任务的理解与规划;但仅靠大模型,无法成为能自主完成任务的智能体 二、大模型与智能体的核心关系:大模型是智能体的 “能力基石” 智能体的 “自主做事能力”,本质是靠大模型解决了 “最核心的理解与规划难题”。 五、协同进化:大模型与智能体相互推动发展 大模型和智能体不是 “单向支撑” 的关系,而是 “相互促进” 的协同进化: 1. 智能体的需求,推动大模型优化 智能体 “工具调用需求”:推动大模型增强 “工具适配能力”(如 GPT-4 的 Function Calling 功能,可直接调用 API); 智能体 “长期记忆需求”:推动大模型发展 简单来说:大模型决定了智能体的 “智商上限”,智能体决定了大模型的 “价值下限”—— 没有大模型,智能体是 “空壳系统”;没有智能体,大模型是 “闲置的能力”。
智能体开发的核心不是“造新模型”,而是“用好现有大模型”。 基础大模型(比如GPT、文心一言)已经掌握了海量知识,我们不用重复训练,关键是解决三个问题:让它知道“做什么”、学会“怎么干”、能应对“突发情况”。第一步,明确目标与边界:给智能体定“任务清单”。 第二步,工具调用:给智能体装“手脚”。大模型本身不会直接操作软件、查询数据库,这就需要给它对接各种“工具”——比如查询库存的数据库接口、发送通知的短信API、整理文档的办公软件插件。 ,智能体先让大模型识别出“需要查库存”,再自动生成查询数据库的SQL语句,拿到结果后再翻译成自然语言回复用户。这里要注意工具的兼容性,不用追求“高大上”,能稳定调用、数据准确比什么都重要。 其实AI智能体开发,本质是“技术落地的思维”——不用纠结底层模型的复杂原理,而是聚焦“用户需求”和“实际场景”,把大模型的知识转化为可执行的行动。
腾讯云智能体知识库下载 1:获取临时密钥 文档:腾讯云智能体开发平台 获取文件上传临时密钥_腾讯云 注意下载的权限时候不要填fileType 参考api登录 - 腾讯云 参考cos的下载对象 文档:对象存储
上几篇内容介绍了基于RAG实现简单的知识库问答功能及优化,本篇文章基于原有功能做下输入内容的纠错。实现的功能是输入一段文字,从本地知识库中检索信息进行比对并提示其中的错误。 result2.调用测试question = input("请输入你的问题(输入 'q' 退出):")if question.lower() == 'q': breakelse: if "知识库 correct_and_optimize_text(question, vector_store) print("答案是:", {answer}) 3.运行代码测试功能二、总结 用大模型结合本地知识库可以实现优化和纠错功能 ,可以从知识源、检索策略、大语言模型、提示工程和评估反馈等多个维度入手提高效果。 大家可以在实践中摸索并改进,实现高级智能体。
如何理解AI大模型和智能体?深入浅出大语言模型心智模型“意向立场” 文 | 王文广在日常生活里,我们总是自然而然地揣测他人的想法——“他觉得天气太冷”,“她希望尽快结束会议”,“他认为我在撒谎”。 同理,当大模型展现出足以完成复杂认知任务的“智能行为”时,我们最合理的做法,就是像对待火星人一样,采用意向立场来理解它们。 DeepSeek-V4的开源发布,对智能体的应用有着极大的促进,数以万计的企业可以本地化部署大模型来开发智能体。 但如何开发先进的智能体,能够充分利用DeepSeek-V4,王文广所著的《智能体系统导论:架构与工程实践》一书实乃佳作,该书剥离了对人工智能能力的过度拟人化想象,回归计算机科学与软件工程的本质,借鉴OpenClaw 它告诉我们,无论一个智能体的“血肉”是碳基还是硅基,当其行为足够复杂时,将其视作一个“有心智的它者”,便是我们所能采取的一种明智的立场。