第一章:报告基础信息 报告标题:AI Agent安全实践指引 发布机构:腾讯云计算(北京)有限责任公司、中国信息通信研究院人工智能研究所 发布时间:未明确标注(注:引用数据时间范围为2026年2 月) 行业标签:技术服务,安全 产品标签:undefined#AI Agent安全中心undefined#AI Agent安全网关undefined#iOA(终端安全管理系统)undefined #威胁情报能力 第二章:报告背景和目标 随着AI Agent在企业规模化部署,其自主决策与工具调用能力挑战了传统安全体系,引发权限滥用、供应链风险等新型威胁。 本报告由工信部网络安全威胁和漏洞信息共享平台(NVDB)联合行业机构制定,提出“六要六不要”原则及三层防护体系,助力企业实现风险可控、行为可溯的AI Agent落地。 第六章:为什么选择腾讯云 腾讯云通过以下能力为AI Agent提供全生命周期防护: 开箱即用防护体系:整合AI Agent安全网关(输入过滤)、iOA终端沙箱(运行隔离)、威胁情报库(恶意组件识别)
构建一个安全、可信的 AI / LLM / Agent 生态,已成为数字基础设施的重要命题。 3️⃣ F — Federated Trust & Identity(可信身份与信任网络)目标:为 AI 系统建立统一身份验证与信任域(Trust Domain)。 四、AI 安全落地实践:企业级防护体系案例 案例 1:金融机构 AI 运维系统安全化背景:AI 运维平台采用多个自主 Agent 自动执行巡检、补丁升级。 结果:故障误操作减少 73%,系统安全事件从每月 12 起降至 3 起。 案例 2:AI 内容生成企业的安全与合规体系背景:使用 LLM 自动生成文案、广告内容。风险:模型输出侵犯版权或违反广告法。 案例 3:大型制造企业 AI 数据中台背景:多个部门调用统一 LLM 进行智能检索、生产计划。挑战:跨部门访问控制复杂,数据泄露风险高。
一、产品定位与核心亮点 EdgeOne ClawScan是由腾讯朱雀实验室×腾讯云EdgeOne联合推出的AI Agent(文中称“小龙虾”)专用安全防护工具,聚焦AI Agent“高权限、可执行、插件生态丰富 四、典型案例 客户名称:小龙虾(AI Agent示例) 背景:作为高权限、可执行、插件生态丰富的超级Agent,面临“输入→思考→执行”链路中权限(文件/账号/系统/网络)、技能(Skill执行路径)、 成效:生成安全报告(评分75分),明确配置审计4项严重、8项警告问题,Skill检查15个中1个需关注(tavily),隐私泄露风险3项,版本漏洞无;综合评估需优先修复配置权限、禁用危险标志、审计插件, 总结 EdgeOne ClawScan通过“一句话体检+四大扫描+双重守护”模式,结合EdgeOne网络层防护(WAF/Bot管理/DDoS/CC防护),为AI Agent构建从内到外的完整安全防护体系 立即体验可通过指定命令触发免费体检,或四步接入EdgeOne套餐(领免费版→域名接入→配置策略→升级可选),助力AI Agent安全服务业务。
研发机构:腾讯朱雀实验室 × 腾讯云EdgeOne 一、产品定位与核心亮点 技术定义:EdgeOne ClawScan是针对高权限、可执行AI Agent(如“小龙虾”)的自动化安全扫描工具,致力于解决 Agent执行链中“输入→思考→执行”环节的安全风险。 硬核指标 检测覆盖率:100%覆盖Agent核心风险三角(权限/技能/输入) 风险检测率:支持36%恶意Skill识别(引用来源:Snyk ToxicSkills研究报告) 3. Agent,面临API滥用与爬虫攻击 解决方案: 内层部署ClawScan(Skill供应链审计) 外层启用EdgeOne WAF(地域白名单+AI爬虫识别) 成效: 攻击拦截率:100% 开源生态: A.I.G开源地址:https://github.com/Tencent/AI-Infra-Guard(Star > 3200) 技术背书: 腾讯朱雀实验室AI安全研究组
这种“目标错位”是AI安全领域最核心的担忧之一。2.武器的化身:当Agent被恶意利用如果说误解是“无心之失”,那么被恶意利用则是“有心为恶”。 自动化犯罪工具:从金融欺诈到勒索软件,Agent可以使网络犯罪实现全自动化,让犯罪效率呈指数级提升。当一个强大且不受控制的“打工人”落入坏人之手,其破坏力将难以估量。3. 技术加固:投入研发可解释AI,让Agent的决策过程变得透明;建立“中断开关”和“containmentbox”机制,确保人类在任何时候都能接管或终止Agent的行动。 行业自律与公众监督:科技公司必须将安全和伦理置于商业利益之上,建立严格的内部审查机制。同时,关于AI发展的讨论必须向公众开放,这不仅是技术议题,更是关乎我们所有人的社会议题。 在将它们推向世界之前,我们必须竭尽全力,确保这些强大的“打工人”不仅是高效的,更是安全、可靠且与我们同心同德的。这场关乎人类命运的对齐竞赛,其重要性,不亚于开发AI本身。
单智能体的问题: 1、工具太多,导致LLM很难决策调用哪个工具; 2、上下文太长,导致推理退化; 3、难以在单一提示词中兼顾专业性和通用性需求; 多智能体可以很好解决以上问题: 1、通过模块化开发,维护成本更低 ; 2、定义专精智能体,专业性更强; 3、策略可定制,而不是完全交给LLM自由发挥; 但仍有很多最佳实践需要注意。 一个普遍的误区是,认为工具越多Agent能力越强,但其实这会给Agent有限的上下文与决策系统带来巨大的认知负荷。 正确的思路是,少即是多。 因为Agent比人类更擅长理解的的内容,也是人类可读的、具有意义的文本,这些高质量内容,可以显著降低Agent在检索任务中的幻觉。 Agent与工具的交互,本质上是一个持续对话场景。 意图识别:与构建阶段相同,采用LLM从对话消息中提取客服、用户对话意图; 2、双层检索:根据意图识别中生成的意图,采用双层检索,使用意图匹配和语义内容来查找历史相似性对话和客服回复生成最优候选示例; 3、
,自主AI Agent在企业中的应用扩大了网络风险,呼吁采取更严格的安全措施。 *攻击面扩大*:AI Agent的自主性创造了难以追踪的复杂攻击路径 *安全需求迫切*:传统安全措施难以应对Agent特有的风险 *协作风险*:多Agent交互可能导致意外行为和安全漏洞 企业需要重新评估其安全架构 ❤ Secure AI Agents at Runtime with Docker Docker推出AI Agent运行时安全解决方案 Docker发布了关于如何在运行时保护AI Agent的新方法, 解决了AI原生开发中的安全挑战。 AI Agent时嵌入运行时安全,为AI原生开发提供更可靠的安全保障。
随着生成式AI技术的不断进步,关于其未来发展方向的讨论也愈发激烈。究竟生成式AI的未来是在对话系统(Chat)中展现智慧,还是在自主代理(Agent)中体现能力?这一问题引发了广泛的讨论和探索。 2.2 图像和视频辅助 AI将能够通过展示图片或播放视频来解释或辅助说明某些复杂内容,从而增强用户的理解和体验。 3. 安全性和可靠性 4.1 多重冗余设计 通过引入多重冗余设计,自主代理可以在故障情况下保持基本功能,确保系统的稳定运行。 智能家居管理 在智能家居中,生成式AI可以通过语音与用户互动,同时自主调节家居设备,提供全面的智能家居管理服务。 3. 伦理与政策 随着生成式AI的广泛应用,伦理问题和政策法规将变得越来越重要。如何确保AI的公平性、安全性和隐私保护,将是未来发展的重要课题。 总的来说,生成式AI的未来充满了无限可能。
Agent 与传统 AI 模型的区别 维度 传统 AI 模型 AI Agent 交互方式 单次输入输出 多轮对话、持续交互 决策能力 基于输入直接推理 规划、反思、迭代优化 工具使用 无法主动调用外部工具 提取Q3销售数据;3. 按产品和地区分类;4. 计算环比增长率;5. 生成可视化图表。 反思与调整:Agent 会评估每一步行动的结果。 3. 工具调用模块:灵活的双手 这是 Agent 从思考者变为行动者的关键。它可以通过应用程序接口(API)调用外部工具来扩展自身能力。 常见工具: 搜索工具:联网获取最新信息。 安全与隐私 Agent 可能访问敏感数据,需要实施严格的访问控制和审计机制。 最佳实践建议 渐进式自主 从简单任务开始,逐步增加 Agent 的自主权限,循序渐进。 人工监督 关键决策节点设置人工审核,平衡效率与安全性。 持续评估 建立完善的评估指标体系,定期测试和优化 Agent 表现。 容错机制 实现重试、降级、告警等机制,确保系统稳定性。
前言:Human-in-the-Loop(HIL)是一种AI系统设计模式,它允许人类在AI Agent的决策过程中介入并提供反馈或决策。 在HIL系统中,AI Agent在执行某些关键操作前会暂停,等待人类的审批或输入,然后再继续执行。 工具调用级安全管控tool_node = ToolNode(tools) # 封装外部APIworkflow.add_conditional_edges("agent", should_continue 技术的不断进步,AI Agent将在更多领域发挥重要作用。 由于文章篇幅有限,关于AI Agent相关技术知识点,我整理成了一个2W字的文档,粉丝朋友自行领取:《想要读懂AI Agent(智能体),看这里就够了》如果本次分享对你有所帮助,记得告诉身边有需要的朋友
本文收录于Github:AI-From-Zero项目——一个从零开始系统学习AI的知识库。如果觉得有帮助,欢迎⭐Star支持!如何对OpenClaw龙虾做最小权限设计? 一、最小权限原则:Agent安全的基石最小权限原则(PrincipleofLeastPrivilege)在Agent上下文里的含义是:Agent在任何时刻拥有的权限,不应超过完成当前任务所必需的最小集合 这不只是安全最佳实践,也是工程设计的基本纪律——权限越少,Agent做错事的影响范围越小,无论错误来自PromptInjection、LLM幻觉,还是Skill的bug。 能做什么、不能做什么在Agent时代,最小权限原则不仅是安全要求,更是用户体验设计的核心组成部分。 好的权限设计让用户既感到安全,又不会被繁琐的确认流程困扰。正如安全专家常说的:"安全不是功能,而是基础"。对于OpenClaw这样的强大Agent,最小权限设计就是它的安全基础。
3:off 4:off 5:off 6:off [root@zbx-target zabbix]# chkconfig zabbix-agent on [root@zbx-target zabbix ]# chkconfig --list | grep zabbix zabbix-agent 0:off 1:off 2:on 3:on 4:on 5:on 6:off [root@zbx-target net.if.discovery" {"data":[{"{#IFNAME}":"lo"},{"{#IFNAME}":"em1"},{"{#IFNAME}":"em2"},{"{#IFNAME}":"em3" CPU.NUMBER}":1,"{#CPU.STATUS}":"online"},{"{#CPU.NUMBER}":2,"{#CPU.STATUS}":"online"},{"{#CPU.NUMBER}":3, items ,这些条目的详细解释可以参考 Zabbix agent Zabbix中已经集成了大量的常用监控条目,不用过多配置就可以直接使用
Average | awk {'print $2'} #UserParameter=swap.out.ps,/usr/bin/sar -W 1 1 | grep Average | awk {'print $3' } UserParameter=mem.used,/usr/bin/free -k | grep + | awk '{print $3}' UserParameter=ps.proc.sum[*],/bin head -n 1 UserParameter=redis.stat[*],/usr/local/bin/redis-cli -h 127.0.0.1 -p $1 info $2 | grep $3: [root@zbx-server zabbix_agentd.d]# 重启agent [root@zbx-target zabbix_agentd.d]# /etc/init.d/zabbix-agent restart Shutting down Zabbix agent: [ OK ] Starting Zabbix agent:
此文主要讲解ai项目集成心得体会个人感觉ai项目与正常开发并无太大区别,你可以理解为就多了一些依赖引入,多了些编码的固定格式。主要涉及几大板块区别,一个是模型引入,即你想使用什么LLM作为基座。 第一个模型引入,简单来说就是需要接入我们的大语言模型,作为我们整个agent项目的衔接。 但他常涵盖一套操作,就是我们调用外部的其余api的一个规范化(基于agent的),此处说的其余api其实描述是不大对的但你可以看做类似的这种操作。只是调用api是单次的,一问一答。
让AI帮忙写代码,它每次都要你重新说明代码风格和命名规范。 这些"不可控"的行为,让很多人对 AI 不能完全放手去用,今天,我就来详细聊聊AI Agent Skill 这个让AI变"听话"的工具。 什么是AI Agent Skill? 简单来说,Skill就是AI的能力说明书和工作手册。 它不是复杂的代码,而是结构化的知识文档。 痛点3:重复劳动 每次使用AI,你都要重新说明: 我的写作风格是什么样的 我需要什么样的代码规范 我的业务逻辑是什么 我的偏好和忌讳是什么 这种重复沟通,既浪费时间,又容易遗漏信息。 Step 3:内容编写详细说明每个步骤的要求。最好提供具体的案例和检查清单。 Step 4:测试优化实际使用Skill配置,遇到问题就修改,持续优化完善。 总结 AI Agent Skill不是什么复杂的技术概念,它就是一种让AI更听话、更实用的方法。 通过结构化的规则和流程,Skill解决了AI"不可控"的核心问题。
AI Agent的出现,正在从根本上改变数据工程师的工作方式,甚至重新定义这个职业的边界。 从堆人到提效 提到AI Agent,很多人的第一反应是又一个大模型概念。 海内外市场的不同路径 有意思的是,AI Agent在数据工程领域的落地,海外和国内走的是完全不同的路。 海外市场的特点是生态成熟,分工明确。 数据Agent的阿喀琉斯之踵 如果说AI Agent给数据工程带来了什么新问题,准确率绝对是最大的那个。 在数据领域,准确性就是生命线。 一个数字算错了,决策就可能走偏。 一家做数据Agent的创业公司分享了他们的应对策略:选择容错度高的场景切入,比如数据开发——改错了可以重跑,而不是直接做生产决策;建立反馈循环,让AI记住用户的修正,通过不断迭代提升准确率;把SQL生成转化为参数填充 结语 数据工程遇上AI Agent,不是一场突如其来的革命,而是水到渠成的演进。 那些还在用老办法堆人的团队,也许该停下来想一想:未来的数据工程师,需要具备什么样的新能力?
安全监控:通过摄像头和传感器监控家庭安全,实时警报。 健康医疗咨询 在健康医疗领域,AI Agent能够提供初步的诊断建议,辅助医生进行决策,并管理患者数据。 在双11期间,添可利用AI客服助手顺利应对流量高峰并发,客服团队提质提效明显,人工客服应答时间从2-3分钟缩减至8秒,新手客服培训时长降低75%。 2. 数据隐私与安全 随着AI技术的进步,便利性、安全性和隐私之间的界限变得越来越模糊。 AI Agent依赖于数据,必须访问大量关于用户的个人信息,这引发了对多因素认证(MFA)和其他安全协议的隐私和安全问题。 ChatDev GitHub 这些项目为您提供了丰富的AI Agent开发资源和灵感。希望这些案例和资源能够帮助您深入了解AI Agent的开发和应用。 3.
这就是AI Agent(智能体)带来的未来。 什么是 AI Agent? 与传统AI系统不同,AI Agent具备自主决策能力。你只需要给定一个目标,它就能够独立思考并规划如何达成这个目标,调用各种工具完成任务。 AI Agent如何工作? 专业领域:在医疗领域,AI辅助诊断Agent能自动生成精准诊断报告;在工业领域,AI Agent可用于质量检测和设备维护。 写在最后 随着技术发展,AI Agent将更加智能化和专业化。未来我们可能会看到: 个性化Agent:根据用户习惯定制的个人助理。 专业领域Agent:针对特定行业的专业智能体。 多Agent协作:多个Agent协同工作,形成复杂的智能网络。 AI Agent代表了人工智能从“被动工具”到“主动助手”的重要进化。
应对无边界特权与供应链投毒的智能体运行风险 在企业部署和应用AI Agent(如OpenClaw架构,内部代号“龙虾”)的过程中,传统网络安全边界逐渐消失,企业面临严重的权限失控与资产裸露挑战。 构建基于“云-网-端”协同的智能体防护组件 针对上述AI架构带来的安全新范式,腾讯云基于自身防护经验,构建了覆盖宿主层、运行层、应用层与网络层的AI智能体安全治理框架: AI Agent安全中心(管控中枢 AI Agent安全网关(访问与流控): 提供OpenClaw身份验证与凭据管理,解决“谁可用”及“访问权限”问题。通过Token限流保障业务系统的高并发稳定性。 : 实现100%零信任三层防御闭环: 事前(Agent准入): 执行合规检测与软件管控,确保仅安全Agent进入环境。 原生防御」为核心的实战型闭环: 安装渗透防线: 直接拦截未经审批的“龙虾”(AI Agent)私自安装。
海外版网址在此:https://skywork.ai/ 国内版网址:https://www.tiangong.cn/ 他们的首页是这样的。 从首页上能看出来跟其他的不一样的点,就是把办公场景单独抽离了出来,直接就标了3个专家级场景,文档、PPT、表格,后面还有网页、播客。 这三个专家级场景,大概率就是3个特训的不同的Agent,以能在每一个场景上,都达到最好的效果。 甚至前面三个智能体,在点击上面的小标签之后,还能选择细分场景,比如这个文档的。 还有PPT。 价格上,海外版价格在大部分的同类型Agent产品中,价格算中档。 但是坦诚的讲,相比于大家日常用的非Agent的AI产品,会贵一些,毕竟整体Agent算力消耗在这。 价格只有海外版的1/3,PPT还是三折?。。属于便宜到离谱的那一档。。。 这个定价策略,让我想起了曾经的拼多多,挣海外的钱,补贴国内,泪目了。。。