联邦政府在制定智能体AI系统安全指导方针时,应优先考虑互操作性和基于风险的标准,各大企业向美国国家标准与技术研究院(NIST)表达了这一观点。
NIST的AI标准与创新中心正在探索如何帮助AI公司及其客户保护智能体免受篡改或滥用,作为该项目的一部分,该机构在周一晚上前征求了公众意见。根据案卷记录,超过930个组织和个人提交了意见,其中包括一些有影响力的行业贸易集团:美国银行家协会和银行政策研究所、软件集团BSA以及科技行业巨头TechNet。
这些组织向NIST提出了广泛的建议,包括发布参考实现、强调安全设计原则、支持智能体AI验证管理研究以及将新指导方针映射到现有NIST出版物。
TechNet表示:"一个协作、迭代的方法,专注于实用指导、现实世界测试以及与现有风险管理框架的一致性,将有助于确保AI智能体能够安全且大规模部署,使美国能够充分获得这一新兴技术的经济和社会效益。"
NIST要求评论者讨论几个主题,包括AI智能体特有的安全风险以及减轻这些风险的方法。
在其回应中,BSA描述了四种独特威胁:智能体的自主行为导致现实世界行动需要监督;智能体在不同工具间切换,使"静态策略执行"变得困难;智能体随时间保留信息,可能让黑客通过污染数据源来劫持它们;以及智能体的"非确定性行为"使得用"基于规则的安全控制"来控制它们变得困难。
为了应对这些挑战,BSA表示,企业应该建立对AI智能体的完全可见性,编目其权限(这有助于快速识别未授权行为),验证驱动智能体活动的AI代码供应链,并实时监控其行为。
行业组织表示,智能体特别危险的原因在于它们能够通过模型上下文协议等系统连接到第三方数据库和物理设备。TechNet表示:"由于AI智能体可以与工具、外部数据和现实世界系统交互,它们带来了需要针对性关注的独特安全挑战。"
NIST并非监管机构,特朗普政府已经表现出对规范性AI安全要求的明显反对。尽管如此,行业组织仍重申了他们经常提出的观点,即对任何AI系统的繁重规则都会在没有显著改善安全性的情况下阻碍创新。
TechNet表示:"政策目标应该是在不通过过早、过于规范或一刀切的要求减缓创新的情况下,减少和管理这些风险。"该组织鼓励NIST专注于"性能定义指导方针"。
BPI和ABA同样鼓励NIST专注于"自愿和技术无关"的指导,提供"可以根据风险和操作环境定制的实际示例和说明性验证方法"。
金融服务组织表示:"这样的指导将促进行业采用,支持集成规划和基于风险的审查,包括在适当时进行尽职调查,并支持遵守法律和监管义务,而无需规定单一实施方法。"
TechNet指出航空业是其偏好的基于性能标准的例子。该组织解释说:"监管者没有强制统一的技术设计,而是建立了与风险暴露和操作环境相关的结果导向标准。这一模式在飞机设计、自主性和操作实践方面创造了期望的清晰度,同时促进了创新。"
TechNet补充说,AI智能体根据使用方式、使用地点以及拥有的自主权程度呈现不同的风险水平,这使得基于风险的方法"特别重要"。
TechNet表示,智能体AI领域仍处于起步阶段,NIST的指导"应该为实验保留有意义的空间,因为智能体AI安全实践继续成熟"。
该组织警告说:"过于僵化或过早的要求可能会在该领域确定最佳技术之前冻结安全方法。"
根据贸易组织的说法,AI行业可以从政府对开发者尚未解决的一系列问题的建议和研究赞助中受益。
BSA鼓励NIST研究验证AI智能体身份的方法,以及使用"加密监管链"来记录智能体被授权做什么的方法。TechNet同样提到了可靠智能体识别解决方案的重要性,并表示它们应该具有互操作性,以避免将市场新参与者拒之门外。
随着越来越多的银行寻求使用AI智能体来处理资产交换,ABA和BPI鼓励NIST提供特定于金融行业的指导,包括"安全对手方交互"的参考资料。
TechNet以及ABA和BPI还要求NIST将其智能体特定指导纳入现有出版物,如风险管理框架。
Q&A
Q1:什么是智能体AI系统?它们有哪些独特的安全风险?
A:智能体AI系统是能够自主行为并与现实世界交互的AI系统。它们的独特安全风险包括:自主行为导致的现实行动需要监督、在不同工具间切换使静态策略执行困难、随时间保留信息可能被黑客利用,以及非确定性行为难以用规则控制。
Q2:为什么行业组织反对过于严格的AI监管要求?
A:行业组织认为繁重的规则会在没有显著改善安全性的情况下阻碍创新。由于智能体AI领域仍处于起步阶段,过于僵化或过早的要求可能会在该领域确定最佳技术之前冻结安全方法,阻止技术进步和实验。
Q3:NIST应该如何制定智能体AI的安全标准?
A:行业建议NIST应该制定自愿性、基于风险、技术无关的指导方针,重点关注性能定义而非规范要求。标准应具有互操作性,能根据风险和操作环境定制,并为技术实验和创新保留空间,同时与现有风险管理框架保持一致。