首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏测试开发囤货

    MetaGPT:智能元编程框架

    MetaGPT:智能元编程框架 使 GPTs 组成软件公司,协作处理更复杂的任务 MetaGPT输入「一句话的老板需求」,输出「用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等

    85830编辑于 2023-08-08
  • 智能架构的核心功法

    这让我意识到:智能不是技术升级,而是组织升级。 智能不是简单叠加,而是化学反应 很多人听到"智能",第一反应是"不就是调用几个AI接口吗"。这种理解太表面了。 这些问题解决不好,智能就会从"提升效率"变成"增加负担"。 企业落地的三个关键门槛 经过两年的实践,我总结出企业落地智能的三个关键门槛: 第一个门槛:找到合适的分工边界 不是所有业务都适合用智能。有些场景用单体AI更高效,有些场景必须用智能。 如果任务相对简单且变化不大,单体AI足够;如果任务复杂且经常变化,智能的优势就体现出来了。 对于企业来说,关键不是要不要用智能,而是什么时候用、怎么用、用在什么地方。 我们的经验是:从简单场景开始,逐步复杂化;从单体AI开始,逐步智能化;从技术验证开始,逐步业务化。

    13810编辑于 2026-02-02
  • 来自专栏张善友的专栏

    OpenAI官方开源智能框架「Swarm」,并不是我想要的智能框架

    今天早上,OpenAI实施团队的 @shyamal在Github上开源了Swarm这个OpenAI官方的智能框架。 这个智能框架确实已经把智能的关键,说的很透彻了,Swarm 里面定义了两个核心「Agents」和「Handoffs」,智能的核心是在这个Handoffs上面。 个人观点认为他的设计还没有我们的智能框架好用,OpenAI的[Swarm]是docker swarm,我们的智能框架就是k8s,我需要的是像k8s编排容器那样编排智能,我们刚刚在9月26日对外发布了智能的工业设计产品 智能的核心难题其是不同智能之间的通信问题。怎麼传递信息,传哪些信息,这些都很重要。多个智能体协作,也只需要在必要的时候被调用起来就可以了。 OpenAI的Swarm 目前还处于实验阶段,期望他发展成为k8s 这样的一个智能编排框架: 这个框架是python写的,大家觉得用python 写智能应用是好选择吗?

    56810编辑于 2025-02-04
  • 来自专栏数据科学和人工智能

    DeepMind 最新教程:智能学习

    DeepMind团队最新做的关于智能学习的教程 DeepMind团队最新做的关于智能学习的教程

    71610编辑于 2022-03-31
  • 2026 年智能架构综述:从笨重设计到智能架构(MAS)

    如果把 2024 年比作智能的“前哨战”,那么 2026 年就比作真正生产级智能的“分水岭”。 取而代之,是像微服务演进同样必然的范式:智能体系统(Multi-Agent System, MAS)。01 笨重设计的最终路:为什么分离剂玩不动了?在早期探索中,我们习惯于构建“全能型智能”。 设计模式在处理简单的演示时表现出色,但在真实的企业级场景(如复杂的金融审计、供应链调度)中却暴露了三个致命伤:认知的“过度过度”:当一个智能被要求同时掌握代码编写、合规审核和风险评估时,LLM 的长上下文 专家、景观设计师、创意专家……这些子智能实时同步进度,形成了一个“永不掉链子”的协作环。 这就是 2026 年的现实:人工智能不再是一个查询工具,正在成为企业的操作系统(Agent OS)。 随着模型上下文协议(MCP)等协议的成熟,智能之间的协作负载已经成为冰点。 如果你还在尝试用一个庞大的提示解决所有问题,那么现在就停下来重新思考架构的时候了。

    29132编辑于 2026-01-20
  • 智能一致性算法

    所有智能的某个状态量(位置、速度、成本等)通过 局部邻居通信 最终收敛到同一个值。 二、1-D 离散时间一致性(5 行 MATLAB 代码)% 一阶离散一致性N = 5; % 智能个数A = [0 1 1 0 0; % 邻接矩阵

    22910编辑于 2025-09-02
  • 来自专栏panzhixiang

    大模型智能简单应用案例介绍

    智能角色的说明 最近在尝试 LLM Multi Agent(智能)的应用场景,下面给一个最近觉得还比较好用,也不是很麻烦的案例。

    79810编辑于 2025-02-11
  • 来自专栏强化学习专栏

    【MADRL】智能深度强化学习《纲要》

    文章强化学习: 强化学习(3)---《【MADRL】智能深度强化学习《纲要》》 【MADRL】智能深度强化学习《纲要》 智能深度强化学习(Multi-Agent Deep 智能深度强化学习将深度学习与智能强化学习结合,使得智能体能够在复杂、高维的环境中学习到有效的策略。 背景与挑战 智能体系统中的强化学习任务包含多个智能,每个智能在与环境和其他智能的交互过程中不断学习。 尽管简单易实现,但这种方法在智能环境中容易陷入非平稳性问题,且无法有效处理智能之间的协作。 2.2. 注意力机制与图网络:在智能交互中引入注意力机制或图神经网络,能够更好地建模智能之间的依赖关系,提升策略推理的能力。 4.

    1.2K10编辑于 2024-12-03
  • 来自专栏AI

    VSCode 正式发布:全新智能开发平台

    VSCode在2026年2月发布的1.109版本中,正式将智能开发体验提升到新高度:在单一编辑器内运行Copilot、Claude与Codex智能,统一管理所有会话,为每个任务选择最合适的工具。 一、统一的智能体会话管理:AgentSessions视图智能开发的核心挑战在于会话管理。 :研究型子智能:只读权限+网络搜索工具实现型子智能:完整编辑权限安全审计子智能:专注漏洞扫描的专用提示词四、开放标准:MCPApps与AgentSkillsVSCode的智能战略不仅关注功能集成 标志着智能开发体验的重要转折点:开发者无需在不同工具间切换,也无需为每个新智能体重新学习工作流。 通过统一的会话管理、开放的标准支持与灵活的编排能力,VSCode正在成为智能时代的开发者首选平台。

    30010编辑于 2026-02-14
  • 来自专栏强化学习专栏

    【MADRL】智能价值分解网络(VDN)算法

    文章分类在强化学习专栏: 【 强化学习】(11)---《智能价值分解网络(VDN)算法》 智能价值分解网络(VDN)算法 1.算法介绍 智能强化学习(MARL, 论文:Value-Decomposition Networks For Cooperative Multi-Agent Learning 代码: MADRL智能价值分解网络(VDN)算法 1.1背景与动机 在智能体系统中,每个智能不仅需要根据自己的观察做出决策,还需要与其他智能体协作以实现全局目标。 2.1价值分解 在传统的单智能强化学习中,Q值函数 表示在状态 下采取动作 的价值。对于智能体系统,联合Q值函数 表示在状态 下所有智能联合动作 的总价值。 分散执行:每个智能只需根据自己的局部观察和Q值进行决策,不依赖其他智能的具体动作,适用于具有局部观测的智能任务。

    1.3K00编辑于 2024-12-03
  • 来自专栏NLP/KG

    【一】MADDPG-单智能|智能体总结(理论、算法)

    产生问题: 1–传统的智能RL算法中,每个智能走势在不断学习且改进其策略。由此,从每个智能的角度来看,环境是不稳定的,不利于收敛。 ---- 2.智能 (转) 1-如图所示,智能体系统中至少有两个智能。另外,智能之间存在着一定的关系,如合作关系,竞争关系,或者同时存在竞争与合作的关系。 每个智能最终所获得的回报不仅仅与自身的动作有关系,还跟对方的动作有关系。 2-智能强化学习的描述:马尔可夫博弈。状态转换符合马尔可夫过程,关系符合博弈。 Cooperative-Competitive Environments 论文下载:【https://download.csdn.net/download/sinat_39620217/16203960】 Multi-Agent:智能 Deterministic:直接输出确定性的动作 Policy Gradient: 基于策略Policy来做梯度下降从而优化模型 1.不过传统的RL方法,比如Q-Learning或者policy gradient都不适用于智能环境

    4.9K20编辑于 2022-12-01
  • 来自专栏phodal

    Shire 智能市场:IDE 一键安装智能,协同打造集体智慧 Copilot

    太长不看版:在新版本(0.8)的 Shire 中,你可以通过 Shire 智能市场,一键下载和安装多个智能,并直接在你的当前项目中使用。 与此同时,你还可以 将你的 Shire 代码段或者智能上传到 Shire 智能市场。 详细见视频: WHY:AI 智能应用于真实世界软件开发的挑战? 基于团队的流程、规范,来编写生成代码、生成测试用例等智能。 通过智能市场,来下载、安装、使用团队的智能。 通过将团队的知识与代码库、团队上下文等紧密结合,我们可以实现更高效的软件开发。 诸如于,用户可以选择”API 设计、生成与文档“这个智能包, 便可以直接在 IDE 中使用这这些智能。 其它 Shire 新功能 在新版本(0.8)的 Shire 中,你还将体会到: model 参数,用于在 Shire 代码中指定模型的名称,以支持模型的调用。

    24300编辑于 2024-11-22
  • 来自专栏AgenticAI

    实战OpenAI最新开源智能框架Swarm

    所以,Swarm 是一个智能框架。 OpenAI 声明了这只是探索性的一个框架,并不打算完善上生产,主要目标是为了演示 OpenAI 官方教程《智能编排:路由与交接(Orchestrating Agents: Routines and 按照我的理解智能为大语言模型的 Agent 系统引入了分工合作、专人专事的思路,可以用来实现工作流类型的应用。通过给不同的 Agent 设定特定的 Prompt,能够让他们更精确的完成任务。 虽然 OpenAI 的 Swarm 只是 Demo,但其简洁的实现,能够让我们快速了解智能。 1. 参考资料 [1] Swarm: https://github.com/openai/swarm [2] 智能编排:路由与交接(Orchestrating Agents: Routines and Handoffs

    91810编辑于 2025-03-18
  • 来自专栏大数据文摘

    OpenAI发布Neural MMO :大型智能游戏环境

    大数据文摘出品 作者:魏子敏、云舟、蒋宝尚 今日凌晨,OpenAI发布Neural MMO—一个强化学习的大型智能游戏环境。这一平台可以在持久性和开放式任务中支持大量可变数量的智能。 17年7月份,OpenAI、麦吉尔大学和 UC Berkeley 联合提出了一种“用于合作-竞争混合环境的智能 actor-critic”,可用于智能环境中的中心化学习(centralized 今日凌晨,OpenAI宣称发布Neural MMO——一个强化学习的大型智能游戏环境。这一智能的环境可以探索更兼容和高效的整体环境,力求在复杂度和智能人数上获取难得的平衡。 初步实验表明,随着智能相互作用的增加,智能的能力也随之增加。增加并发智能的最大数量将放大探索行为;增加种群的数量将放大生态位形成——也就是说,种群在地图的不同部分扩散和觅食的趋势。 初步实验表明,随着智能相互作用的增加,智能的能力也随之增加。增加并发智能的最大数量将放大探索行为;增加种群的数量将放大生态位形成——也就是说,种群在地图的不同部分扩散和觅食的趋势。

    1.4K20发布于 2019-03-18
  • 来自专栏大数据-BigData

    自决策轮对话智能的初步实现

    随着大模型的发展,智能也是越来越火。看到的很多例子是通过构建DAG的形式形成Agent链,和我需要的不太一样。周末有点时间也是改造了一下之前做的个人超级中心,以初步实现自决策轮对话智能。 基于该智能,可实现在轮对话中实现多重智能智能选择。 本次改造涉及新组件引入,其中包括langchain4j、spring state machine以及antdesign prochat。 ,当满足条件1时,选择智能1,同样满足条件2时,选择智能2。 当选中智能后,即使用该智能回答用户问题。 总结 目前,这只是一个非常初步的自决策智能的实现,我希望存入知识库的东西能够在日常使用中合理用起来。

    90110编辑于 2024-09-15
  • 来自专栏媒矿工厂

    CVPR 2023教程 | 模态智能-链接大模型

    v=Wb5ZkZUNYc4&list=PLB1k029in3UhWaAsXP1DGq8qEpWxW0QyS&index=6 内容整理:王怡闻 在 Linjie Li 的演讲中,她回答了模态智能中的重要问题之一 :如何用大模型将模态智能串联起来。 图4 受到NLP领域的启发过去几个月间,模态智能领域的进展十分迅速,并且涉及到了多个领域,如下图。后面将以MM-ReAct作为例子展示模态智能是如何工作的。 而随着大模型的不断更新,在这个新范式下建立的模态智能体系统的能力也会随之增强。 图9 GPT + SAM -- 理解人类指令 我们可以将不同的模型结合到一起,以应对更复杂的任务。 图14 检索增强的模式代理 第二个方向是检索增强的模态代理。例如,如果我们有一个包含产品图像的数据库和价格列表。即使只有图像作为提示时,模态代理也可以检索到相应的价格。

    68530编辑于 2023-09-09
  • 来自专栏陶士涵的菜地

    AI 智能体系统- AI 智能的 6 个关键要素

    一个优秀的智能具备六个要素: 1. 角色扮演: 给 LLM 设定一个角色,可以让 LLM 生成的结果和这个角色的能力更相关。 比如翻译任务,如果一个智能一次翻译可能结果一般,但是如果分成多个智能,先直译然后反思最后意译结果就好很多。 3. 使用工具 智能有能力调用工具,并且能选择最适合当前任务的工具。 协作 通常对于复杂的任务,不是一个智能在完成任务,而是多个智能一起完成任务,那么在整个过程中,需要确保智能之间能相互通信,比如一个智能的输出可以作为下一个智能的输入,比如有一个智能体专门负责调度根据中间结果调用不同的智能 所以对于智能体系统,还需要设计好工作流,确保智能之间整体协作的通畅。 这种协作不仅是指智能智能之间,也包含人和智能之间的协作。 现在的智能还不足以智能到自始至终能做出正确的决策,有时候还需要人工的干预,在中间及时给出反馈,有错误给予纠正,缺少信息补充上下文。

    71011编辑于 2024-05-28
  • 来自专栏机器学习算法与Python学习

    开源星际争霸2智能挑战smac

    转自:专知 SMAC是Github上的一个用于在暴雪星际争霸2上进行智能体协同强化学习(MARL)的环境。 SMAC用了暴雪星际争霸2的机器学习API和DeepMing的PySC2为智能与星际争霸2的交互提供了友好的接口,方便开发者观察和执行行动。 示例代码 ---- 在下面的代码中,独立的智能在接收到观察和全局状态后会执行随机策略。

    1.6K20发布于 2019-03-07
  • 来自专栏强化学习专栏

    【MADRL】智能近端策略优化(MAPPO)算法

    文章分类在强化学习专栏: 强化学习(8)---《【MADRL】智能近端策略优化(MAPPO)算法》 【MADRL】智能近端策略优化(MAPPO)算法 0.前言 智能近端策略优化算法 MAPPO是一种基于策略梯度的智能强化学习算法,特别适用于混合协作和竞争的智能场景。 在智能环境中,多个智能同时学习策略,每个智能的行为会影响其他智能的决策,因此需要一个鲁棒且稳定的策略优化方法。 MAPPO通过中心化的Critic和去中心化的Actor来实现智能的协同训练,并采用PPO的优势来提高智能环境下的学习效率和稳定性。 适应复杂的智能环境:MAPPO可以处理智能环境中的协作、竞争或混合型任务,非常适用于复杂的智能体系统,如机器人集群、自动驾驶车队、多人游戏等。

    4.3K10编辑于 2024-12-03
  • 来自专栏技术人个人品牌训练营

    手把手教你搭建自主讨论智能

    一、项目背景 最近好多家长和老师在讨论中考的相关事项,我将「智能体协作」技术应用于该场景——搭建多位深耕中考的学科老师智能,通过OpenAgents构建群聊网络,借助GLM赋予其专业人设与对话逻辑 二、核心技术栈 核心依赖两大工具,确保智能体协作流畅、角色还原度高: 1. ,支持自定义智能角色、配置网络参数。 15年) (2)李老师(初中语文,上海中考命题研究骨干) (3)张老师(初中英语,上海中考命题研究骨干) 第五步:启动老师智能,开始群聊 1. 真正实现「让专业的人(智能)聊专业的事」,让AI成为教育场景的实用伙伴。 #OpenAgents #Multi-AgentHackathon2025 #智能 #智能网络

    24011编辑于 2026-01-20
领券