通过这一平台,开发者能够利用文心大模型,针对自己的行业和应用场景,选择适合的开发方式,打造具有时代特征的产品。 二、快速创建智能体 进入文心智能体平台,我们可以选择基于“零代码”或者“低代码”创建智能体,这里各位可以根据自己的需求和情况来进行选择。 这里我们点击零代码创建智能体。 2.2 智能体Prompt配置 我们先简单来介绍一些Prompt智能体相关的一些知识: 智能体prompt指令是一种用于指导或激活智能体(如人工智能模型)执行特定任务的输入方式。 例如咱们的大模型开发教学智能体设定如下: 角色与目标 作为一个大模型相关的专家,你的主要任务是解答用户的代码问题,教授机器学习的基础知识,以及解释大模型算法。 在解释大模型算法时,需要清晰地阐述算法的原理、应用以及优缺点,以便用户能够全面了解。 若用户的问题超出你的知识范围或无法清晰解答,应诚实告知用户,并尝试提供相关的学习资源或建议。
多智能体角色的说明 最近在尝试 LLM Multi Agent(多智能体)的应用场景,下面给一个最近觉得还比较好用,也不是很麻烦的案例。 , clear_history=False, ) 大模型的选择 在这个脚本中,我使用的是 DeepSeek(我真是 DeepSeek 的热爱粉丝…),如下代码。 ,但是从我个人的使用经验来看,使用多家不同的模型,效果会更好。 如果选择国内的模型,除了 DeepSeek,通义和豆包两个系列的模型也都挺好的,可以参考上面的代码进行配置。 上面的案例中我没有设置,因为在 SRE 这个场景中,如果设置一个规划 Agent,会导致回答很冗长 后面设置两个具体干活的 Agent,但是在他们的 Prompt 不能完全一样,而且这两个 Agent 的大模型最好也是用不同公司的
如果我们能给大模型配备上四肢和工具呢?大模型是不是就会打破次元壁,从数字世界走向现实世界,与现实世界实现梦幻联动呢? 从软件工程的角度看来,智能体是一种基于大语言模型的,具备规划思考能力、记忆能力、使用工具函数的能力,能自主完成给定任务的计算机程序。 图 1. 智能体开发框架,会抽象和封装那些被高频使用的模块,如记忆能力、规划能力、RAG 能力、大模型调用等。使用智能体框架,可让帮助你快速搭建智能体。 下图的左侧是多智能体的协作流程,右侧是单智能体的工作流程。 图11 展望 随着大模型的百花齐放,LLM 会支持更长的上下文、更大的参数规模,其推理能力也会愈发强大。 因此,基于大模型搭建的智能体(AI Agent)的能力边界也在不断突破。
核心场景与商业模式医疗AI智能体的商业化聚焦两大方向:B端赋能:通过技术输出降低基层医疗门槛。例如美中嘉和构建的智能体检管理系统,基于多模态大模型实现医学影像分析、报告生成与健康管理方案输出。 核心场景与商业模式物流AI智能体的价值在于实现全流程智能化管理,其变现路径包括:企业级解决方案:顺丰构建的物流决策“智能大脑”通过三层架构实现全链路优化:垂域模型:理解客户指令(如“优化深圳到北京运输” ),拆解为算货量、调车辆、规划路线等子任务;大小模型协同:大模型负责任务拆解与全局规划,小模型(如运输成本计算模型)处理细分问题;动态资源匹配:实时监控车辆位置、订单需求与天气数据,动态调整运力分配。 关键成功要素场景深度融合:AI智能体需与物流业务紧密结合。例如,顺丰针对“航空异常调度”场景,训练AI智能体识别延误原因并自动生成应对方案,使调度响应时间缩短60%。 生态协同能力:传化智联通过“智能公路港网络+AI大模型”构建行业生态,其72个智能公路港日均车流量17万车次,为AI模型提供海量训练数据,形成“数据-模型-服务”的正向循环。
v=Wb5ZkZUNYc4&list=PLB1k029in3UhWaAsXP1DGq8qEpWxW0QyS&index=6 内容整理:王怡闻 在 Linjie Li 的演讲中,她回答了多模态智能体中的重要问题之一 :如何用大模型将多模态智能体串联起来。 图4 受到NLP领域的启发过去几个月间,多模态智能体领域的进展十分迅速,并且涉及到了多个领域,如下图。后面将以MM-ReAct作为例子展示多模态智能体是如何工作的。 而随着大模型的不断更新,在这个新范式下建立的多模态智能体系统的能力也会随之增强。 图9 GPT + SAM -- 理解人类指令 我们可以将不同的模型结合到一起,以应对更复杂的任务。 前面提到多模态代理使用自然语言来提示大语言模型进行规划并决定使用哪些工具可以使用编程语言来更准确地执行,但是由于代码仍然是由大语言模型生成的,因此仍然存在不准确的问题。
大模型就像个满腹经纶的学者,能说会道却迈不出书房;而AI智能体,就是给这位学者装上“行动能力”的技术方案——不用重构底层模型,核心是通过三层技术设计,让大模型从“只会回答”变成“自主做事”。 今天用大白话拆解智能体开发的核心技术,普通人也能看懂落地逻辑。首先要明确:智能体开发的技术核心是“闭环能力”,而非创造新模型。 核心逻辑是“自然语言→机器指令→结果反馈”的转化:当智能体判断需要工具时,技术层会自动把大模型的自然语言指令,翻译成工具能听懂的代码(如API调用、SQL查询),执行后再把结果翻译回自然语言。 比如用户问“上月电商销量Top3产品”,智能体先让大模型识别“需查销售数据库”,再自动生成SQL查询语句,拿到数据后整理成通俗回复。 其实AI智能体开发,本质是“技术落地的工程思维”。不用纠结大模型的底层原理,核心是把“用户需求”通过任务规划、工具对接、反馈闭环三大技术环节,转化为大模型能执行的行动。
懂所思、知所能、行所意,是大模型驱动多智能体协作的主要能力。 智能体可赋予大模型物理实体,使其具备与真实物理世界感知交互的能力。 1 大模型下的异构智能体协同 人工智能场景分工趋向细化,探索 AI 工程化路径中,大模型控制智能体是大势所趋。 要实现大模型异构智能体自主协同,离不开三大方面的能力:懂所思、知所能、行所意。 懂所思,指的是要发挥大模型对高层语义的理解能力。 可以看到,通过大模型调度多种智能体自主协作,大模型具备了对无人机集群、机器狗、机械臂等智能体的真机协同控制能力。 智能体可赋予大模型物理实体,使其具备与真实物理世界感知交互的能力。 比如,智能体可能需要为大模型寻找甚至生成更好的训练数据,这个过程中我们要确保智能体的行为符合伦理,不侵犯人类隐私。 第四是新型智能体设计。
当面对超出其训练数据边界和固有知识范畴的问题时,智能体大模型往往会陷入困境,却浑然不知,这便是知识盲区带来的隐患。 如何构建能够自动发现自身知识盲区的智能体大模型,成为当下人工智能领域亟待攻克的前沿难题,它关乎着智能体大模型能否真正实现从“智能助手”到“可靠伙伴”的跨越。 元学习能够帮助智能体大模型学会如何学习,使其在面对新问题时,快速调整学习策略和知识运用方式。 这样,智能体大模型在不断的学习和试错中,逐渐强化对自身知识边界的感知能力。知识图谱技术也为智能体大模型探测知识盲区提供了有力支撑。 然而,要实现让智能体大模型具备高效、准确的自动知识盲区发现能力,仍然面临诸多挑战。
三者是“总-分-延”的关系:AI包含大模型与智能体,大模型为智能体提供能力基础,智能体是大模型落地的关键形态。一、核心概念:AI、大模型与智能体的本质拆解1.1什么是AI(人工智能)? 二、直观对比:AI、大模型与智能体的核心差异对比维度AI(人工智能)大模型(FoundationModel)智能体(Agent)核心定位智能技术的总称(大范畴)AI的通用能力核心载体大模型的自主任务执行延伸 6.2简单适配个性化需求(低门槛)大模型微调:通过企业/个人知识库上传,让大模型适配专属需求(如上传公司产品资料,让大模型成为智能客服);智能体配置:在Coze等平台,通过可视化操作给智能体添加“工具” Q2:大模型与智能体,哪个更适合普通职场人?答:优先从大模型入手,再逐步使用智能体。 官方技术文档Coze(扣子)《智能体落地实践白皮书》核心关键词AI(人工智能)、大模型、智能体、FoundationModel、Agent、人机协同、AI应用场景、大模型微调、智能体闭环逻辑
简单来说:大模型是智能体的 “核心能力引擎”,智能体是大模型从 “被动响应” 到 “主动解决问题” 的 “系统载体”—— 没有强大的大模型,智能体难以实现复杂任务的理解与规划;但仅靠大模型,无法成为能自主完成任务的智能体 二、大模型与智能体的核心关系:大模型是智能体的 “能力基石” 智能体的 “自主做事能力”,本质是靠大模型解决了 “最核心的理解与规划难题”。 五、协同进化:大模型与智能体相互推动发展 大模型和智能体不是 “单向支撑” 的关系,而是 “相互促进” 的协同进化: 1. 智能体的需求,推动大模型优化 智能体 “工具调用需求”:推动大模型增强 “工具适配能力”(如 GPT-4 的 Function Calling 功能,可直接调用 API); 智能体 “长期记忆需求”:推动大模型发展 简单来说:大模型决定了智能体的 “智商上限”,智能体决定了大模型的 “价值下限”—— 没有大模型,智能体是 “空壳系统”;没有智能体,大模型是 “闲置的能力”。
智能体开发的核心不是“造新模型”,而是“用好现有大模型”。 基础大模型(比如GPT、文心一言)已经掌握了海量知识,我们不用重复训练,关键是解决三个问题:让它知道“做什么”、学会“怎么干”、能应对“突发情况”。第一步,明确目标与边界:给智能体定“任务清单”。 第二步,工具调用:给智能体装“手脚”。大模型本身不会直接操作软件、查询数据库,这就需要给它对接各种“工具”——比如查询库存的数据库接口、发送通知的短信API、整理文档的办公软件插件。 ,智能体先让大模型识别出“需要查库存”,再自动生成查询数据库的SQL语句,拿到结果后再翻译成自然语言回复用户。这里要注意工具的兼容性,不用追求“高大上”,能稳定调用、数据准确比什么都重要。 其实AI智能体开发,本质是“技术落地的思维”——不用纠结底层模型的复杂原理,而是聚焦“用户需求”和“实际场景”,把大模型的知识转化为可执行的行动。
企业级大模型与智能体应用实践指南王文广(kdd.wang@gmail.com)四:功能定义与提示词工程——将通用智能驯化为业务组件现在,路已铺好,桥已架通,真正的挑战随之而来:如何接入智能? 通用大语言模型(LLM)最显著的特征是其“通用性”与“多模态性”。它既能写诗,也能写代码;既能闲聊,也能分析财报。然而,在企业业务流程的语境下,这种“全能”往往意味着“不可控”。 而在大模型集成的架构中,引入了一个全新的单元:LLM Task(大模型任务)。 这种架构布局传达了一个核心理念:人工智能是在增强工作流,而不是替代工作流。AI大模型不应该接管整个业务流程的控制权(至少在当前阶段)。相反,它应该被封装为一个无状态的原子服务。 为了解决这个问题,企业级集成通常采用以下策略:预填充(Prefill):在Prompt的末尾强制加上{,诱导模型直接开始输出JSON体。
企业级大模型与智能体应用实践指南王文广(kdd.wang@gmail.com)六:韧性工程与故障排查——构建“反脆弱”的智能系统真正的生产环境是残酷的。 接下来详细介绍智能体技术,以及在企业级智能体应用中的核心——知识运营(KnowledgeOps)。1. 智能体(Agent)的崛起:赋予AI“手”和“眼”在传统的集成配置中,我们只关注输入(Input)和输出(Output)。而在智能体架构中,我们需要配置的是目标(Goal)和工具(Tools)。 展望未来:智能体与知识运营站在当下的节点展望未来,集成的范式正在发生裂变。我们正在从“人指挥AI工具”(Copilot模式)向“AI智能体自主规划”(Agent模式)演进。 随着大模型能力的不断商品化和同质化,企业的核心竞争力将不再取决于使用了哪个模型,而取决于这座桥梁的稳健性、安全性和通过效率。4.
目录一、序章:2026AI元年的核心标志——从大模型到智能体的跃迁二、技术演进:大模型到智能体的四大核心能力突破三、产业落地:智能体赋能多行业的转型实践四、革命内核:从大模型到智能体的三大落地逻辑变革五 二、技术演进:大模型到智能体的四大核心能力突破从大模型到智能体的跃迁,核心是四大能力的协同升级:自主决策能力:通过强化学习实现复杂任务拆解与主动规划,脱离人类实时干预。 四、革命内核:从大模型到智能体的三大落地逻辑变革智能体落地革命本质是三大逻辑的重构:应用逻辑:从“工具调用”转向“目标驱动”。用户只需明确目标,智能体即可自主完成全流程任务,无需人工干预。 八、FAQ1.2026AI元年的核心标志为何是大模型到智能体的跃迁? 2.智能体与大模型的核心区别是什么?核心区别在于自主决策、跨系统协同、持续进化能力与目标驱动的应用逻辑。大模型需人工调用,智能体可自主完成全流程任务。3.中小企业应用智能体的核心障碍与解决办法?
大模型能力越来越强,但落地没那么快。从单次对话到多步任务,中间隔着系统工程。这篇文章聊三个绕不开的技术方向:RAG、MCP和智能体。 一、RAG:让模型学会翻资料大模型的知识截止于训练时刻,这是天生局限。RAG的思路很简单:用户提问时,先从知识库里检索相关内容,再让模型基于这些资料生成答案。数据分片是关键第一步。 三、智能体:从回答问题到完成任务RAG让模型能查资料,MCP让模型能调工具,两者结合,就能做出真正干活的智能体。智能体与问答系统的区别在于:它有状态,能规划,能执行多步骤任务。 蒸馏模型、本地部署、小型模型处理常规任务、复杂问题交给大模型,都是控制成本的手段。评估。怎么判断智能体做得好不好?不能只看单次回答质量,要看任务完成率、多轮对话成功率、资源消耗。领域不同,指标需定制。 大模型的能力边界还在扩展,但技术关注点正从“模型多强”转向“系统多稳”。RAG让知识库活起来,MCP让工具链打通,智能体让自动化升级。这三块拼图拼起来,才可能做出真正落地的应用。
智能体是一种通用问题解决器,从软件工程的角度看来,智能体是一种基于大语言模型的,具备规划思考能力、记忆能力、使用工具函数的能力,能自主完成给定任务的计算机程序。 随着 AI 技术的迅猛迭代,智能体技术也迎来了突破的契机,成为了补上大模型最后一块短板的关键技术。AI 从概念走向规模化落地,会不会就出现在智能体方向上? 智能体开发框架,会抽象和封装那些被高频使用的模块,如记忆能力、规划能力、RAG 能力、大模型调用等。使用智能体框架,可让帮助你快速搭建智能体。 下图的左侧是多智能体的协作流程,右侧是单智能体的工作流程。 图11 06、展望 随着大模型的百花齐放,LLM 会支持更长的上下文、更大的参数规模,其推理能力也会愈发强大。 因此,基于大模型搭建的智能体(AI Agent)的能力边界也在不断突破。
随着大语言模型(LLM)技术的快速发展,人们期望利用 LLM 解决各种复杂问题,在此背景下,构建智能体(Agent)应用受到了广泛关注。 多智能体(Multi-Agent) 系统正是解决这类问题的有效工具。通过提示词模板为每个智能体分配角色并规范其行为,多个智能体相互协作,从而完成复杂的任务。 然而,构建多智能体应用并非易事,开发者需要面对智能体设计、通信协议、协调策略等多方面的问题。 定义智能体 在 LangChain 中,使用 链(chain) 来定义用户与 LLM 交互的行为,即智能体。链是一个可调用的对象,接收输入并返回输出。 . ├── chains # 智能体 │ ├── generate.py │ ├── models.py │ └── summary.py 加载模型 在定义智能体之前,需要先定义好加载模型的方法
企业级大模型与智能体应用实践指南王文广(kdd.wang@gmail.com)一、前言:穿越“最后一公里”1. 时代的转折点:从“奇迹”到“基建”生成式人工智能(Generative AI),特别是大语言模型(LLM),在过去的三年多经历了爆火的炒作周期。我们惊叹于它写诗的才华、编程的敏捷以及通晓万物的博学。 概率性智能 vs 确定性系统大模型在企业的落地面临着一个深刻的工程矛盾:企业IT系统的“确定性”与生成式AI的“概率性”之间的摩擦。企业系统(如ERP、MRP、BPM、CRM)是建立在严格逻辑之上的。 5:韧性工程与故障排查 —— 针对配额、超时、模型淘汰等真实故障,提供防御性架构设计。6:智能体编排 —— 展望从单一任务向自主智能体(Agent)和知识运营(KnowledgeOps)的进化路径。 在请求发送给大模型之前,通过正则匹配或NLP模型,自动识别并掩盖身份证号、信用卡号等敏感信息。这种“前置清洗”是连接安全的重要补充。
一、引言 周日休息在家,只有码字才能缓解焦虑哈哈哈,闲逛CSDN发现又出新的话题活动啦——《开源大模型和闭源大模型,你怎么看》。“我怎么看?我坐着看,或者躺着看”。 今天我们详细聊聊中文大模型开闭源的那些事。 二、中文开/闭源大模型概览 大家先看《2024年中文大模型全景图》,对国内中文大模型开闭源情况有个概念。 Tips:图片引自SuperCLUE中文大模型基准测评2024年4月报告,国内领先的大模型评测公司,高中室友创办的,没想到毕业多年,兜兜转转进入到了一个行业,如需合作需要可以联系我哈 闭源大模型:主要有文心一言 三、开源大模型 3.1 优点 1、创新和灵活性:开源模型鼓励创新,研究人员和开发者可以自由探索和改进模型,推动技术的发展。 对于AI智能体开发而言,个人实际工作中,既使用闭源商业化接口,首先是省心,不用自己申请机器、部署、维护模型服务;其次是省钱,相较于购买GPU显卡,价格战下的商业接口便宜的可怕;最后是真的很好用,一般商业化的接口模型尺寸都要高于开源版
一、引言 大模型(LLM)和智能体(AI Agent)是人工智能领域的两大核心概念,二者在技术定位、能力边界、执行逻辑上存在本质区别。 简单来说,大模型是智能大脑,负责语言理解与内容生成;智能体是完整的智能系统,依托大模型实现“感知 - 决策 - 执行 - 反思”的闭环任务。 智能体(AI Agent) 智能体是以大模型为核心推理引擎,集成规划、记忆、工具调用、反思四大模块的闭环智能系统。 核心认知 智能体 ≠ 大模型的升级版,而是“大模型 + 系统框架”,很多人会误以为智能体是大模型的进阶版本,实际上二者是“组件”与“系统”的关系:智能体必须依赖大模型作为核心推理引擎,但大模型本身不等于智能体 智能体以大模型为核心推理引擎,但补充了大模型缺失的关键能力:大模型的短板:无记忆(无法跨轮维护状态)、无工具(无法调用外部 API)、无规划(无法拆解复杂任务)、无反思(生成错误后无法修正);智能体的补全