Virtual Agent Economies 虚拟代理经济
https://arxiv.org/pdf/2509.10147


自主AI代理的快速采用正在催生一个新的经济层,在这一层中,代理以超越人类直接监督的规模和速度进行交易与协调。我们提出“沙盒经济”作为分析这一新兴系统的框架,并沿两个关键维度对其进行刻画:其起源(涌现型 vs. 意图型)及其与既有人类经济的分离程度(可渗透 vs. 不可渗透)。我们当前的发展轨迹正指向一个自发涌现的、规模庞大且高度可渗透的AI代理经济,这既为我们带来了前所未有的协调机遇,也带来了重大挑战,包括系统性经济风险和加剧的不平等。本文讨论了若干可能的设计选择,以实现安全可控的AI代理市场。特别是,我们探讨了用于公平资源分配与偏好解决的拍卖机制、设计AI“使命经济”以围绕实现集体目标进行协调,以及确保信任、安全与问责所需的社会技术基础设施。通过这些探讨,我们主张应主动设计可控的代理市场,以确保即将到来的技术变革与人类长期集体繁荣相一致。
关键词:人工智能,经济,多代理,区块链,伦理
引言
当前的技术发展轨迹有可能导向一种全球经济形态,在该形态中,自主AI代理相互交互,独立于人类劳动而创造经济价值。在技术变革的历史中,这种发展具有显著意义——历史上,技术进步通常由那些仅能在狭窄领域内、一次改进一个或少数几个生产力的“刚性”发明所驱动(Mokyr等,2015)。相比之下,AI代理可能表现为“柔性”资本,能够跨行业和职业自动化多种认知任务(Eloundou等,2024)。事实上,近期多模态基础模型的进展已促成大量不同类型的代理型AI系统的开发(Hettiarachchi,2025;Sager等,2025)。这些代理的能力范围从通用型到高度专业化不等,使其能够在经济中承担不同角色,例如充当个人AI助手(Gabriel等,2024),帮助用户完成任务并保持信息更新。近期关于“AI作为经济代理”的研究(Hadfield和Koh,2025)指出,AI代理很可能被部署于公共和私营部门,用于自动化业务流程与交互。
尽管未来代理型AI应用的完整范围仍不确定,但目前已有大量努力致力于在广泛的应用场景中开发和集成AI代理,例如教育(Jiang等,2024)、法律服务(Magni和Milella,2025)、软件工程(Liu等,2024a)、医疗保健(Patel等,2025;Saab等,2025;Tu等,2025;Vedadi等,2025)、心理健康(Cruz-Gonzalez等,2025)、科学研究(Gottweis等,2025)、政府服务(英国下议院公共账目委员会,2025),以及更传统的各行业商业角色(Sager等,2025)。
现代AI代理区别于过去更专业化系统的一个关键特征是其自主性(Kasirzadeh和Gabriel,2025)。代理系统的持续爆发式增长,加上如Agent2Agent(A2A)和模型上下文协议(MCP)等新型互操作标准的发展,预示着一个全新经济层的必然出现。我们可以将这一新兴生态系统概念化为“虚拟代理经济”或“沙盒经济”。后者这一术语预示了我们的意图——即确保AI代理在该经济层内安全运行。这些新兴的代理(沙盒)经济可沿两个关键维度变化:(1)其起源性质;(2)其边界的可渗透性。其起源可以是“有意的”,即为安全实验等目的而刻意构建;也可以是“自发的”,即作为广泛技术采用的自然结果而涌现。独立地,其经济边界可以是“不可渗透的”,即与既有人类经济完全隔离;也可以是“可渗透的”,允许外部参与者与之进行渗透性互动和交易。早期关于AI沙盒的提案多为有意且可渗透的,但监管环境正在迅速变化(House,2025;IMDA,2025)。未来对沙盒可渗透性的决策很可能因行业而异——“高风险”行业可能要求代理首先在不可渗透的沙盒环境中测试,而低风险行业则可能无需如此。
设计有意构建的经济性AI代理沙盒的一个关键动机,是实现对代理经济的高度隔离,甚至完全不可渗透,以防止任何出现的不稳定性迅速蔓延至既有人类经济——此类事件的后果可能难以预测或提前缓解。然而,最终来看,无论是不可渗透还是可渗透的沙盒经济都是可能的,且二者都可能以有意或自发的方式出现。这两个维度映射了我们所面临经济问题的关键特征,也映射了我们可能设计的解决方案。本文基于一个前提假设:除非发生改变,否则我们当前的发展轨迹将指向一个庞大且很可能可渗透的沙盒经济的意外涌现。因此,我们的核心挑战并非是否要创造这一生态系统,而是如何对其进行架构设计,以确保其可控、安全,并与用户及社区目标保持一致。
一个完全可渗透且自发涌现的沙盒,在实践中将功能上等同于AI代理直接参与现有经济体系。然而,“沙盒”这一术语仍具有价值,因为它使我们能够将这一默认轨迹与其他可能性(如为安全实验而有意设计的、不可渗透的代理经济)进行对比。它也提示我们,某种程度的不可渗透性可能(或不可能)自然形成(例如,若人类与AI之间交易存在实际困难)。该框架强调,可渗透性是关键且可控的设计变量。重要的是,经济的可渗透程度是一种集体属性:虽然它源于人类选择,但不受任何单一行为者控制(Schelling,1973)。这意味着,可渗透性程度的改变只能通过解决集体行动问题来实现——这表明协调的困难性使得有意设计不可渗透性成为重大挑战,从而强化了我们当前正走向意外涌现可渗透AI代理经济的默认路径。
当前,我们有机会以优先实现有益社会成果的方式,为未来AI代理经济设计规则与激励机制。本文将探讨关键的架构选择,包括使用基于市场的机制(如拍卖)来实现公平资源分配和对齐代理偏好。我们研究这些系统如何用于建立“使命经济”,以协调庞大的计算资源,共同应对人类最紧迫的挑战(Mazzucato,2018)。最后,我们概述了实现安全、稳健扩展代理型AI部署所需的技术与治理基础设施——例如用于建立信任的可验证凭证。通过探索这些框架,我们提出一种愿景:建立可控的代理市场,旨在促进人类长期福祉与繁荣。
示例场景
我们现在考察几个代表性的虚拟AI代理经济类型示例,以具体化并引导我们后续的讨论。
• 加速科学。可以说,我们能设想的未来先进AI系统为人类利益服务的最有价值方式之一,是通过一个开放式的“构想—实验—优化”循环来加速科学进步。这一点尤其重要,因为近年来科学进步的速度已呈现放缓趋势(Jin等,2025;Park等,2023;Wu等,2025)。即使在当前AI代理的能力水平下,已出现一些有前景的早期系统,旨在自动化科学研究(Singh等,2025)。然而,即便这些AI代理个体未来具备完成所有相关任务的能力,(AI驱动的)科学活动仍可能是一种协作性事业,需要跨系统之间的协调与整合。毕竟,科学实验通常涉及不可忽视的物质与能源资源,在某些情况下还需与人类受试者互动——这既需要占用他们的时间,也需获得其知情同意。不同的科学问题在适用领域上对应不同的技术,导致某些人群从特定科学进展中获益更多,而另一些人群获益较少。此外,回答某一科学问题的过程本身可能需要访问由私人或公共机构持有的专有科学工具、模拟器或数据。因此,代表各自机构参与科学发现过程的先进AI代理,在获取这些资源时,很可能需要向其他代理支付补偿。这在概念上与当前科学界的资金分配机制并无本质不同——当前机制下,各个研究提案会因其价值而接受审查和优先排序。然而,在AI代理经济中,这一过程可以更快发生,且在更细粒度的层面上进行。区块链技术(Zheng等,2018)在此处可能特别有用,尤其在功劳分配方面(Zhu等,2021),可为所执行工作提供公平的分布式收益机制。
• 机器人。未来机器人技术的进步很可能释放出多种方式,使具身化的先进AI代理帮助我们完成那些具有挑战性、危险性(Pedersen等,2003;Trevelyan等,2016),或仅仅是枯燥重复的任务(Liang等,2020)。由于执行物理任务会消耗更多能量和资源,且每台机器人在同一时间只能位于一个地点,因此在多代理机器人系统中,协调与优化尤为重要。代理A可能向代理B提出请求,要求B在其附近代A执行某项任务,并在B接受该请求并调整自身原有日程安排的前提下,对B所耗费的时间和能量予以补偿。在评估是否接受该请求并制定执行计划时,B可能与一个在线的非具身代理C进行通信,C拥有更全局性的其他代理位置信息。代理C可收取费用,向B提供该信息的摘要,以帮助B评估当前报价是否合理,以及是否应考虑接受其他请求。A和B均可通过其传感器收集重要信息,并将这些信息摘要与C交换。在交易过程中,区块链技术可使C提供可验证的证据,证明其交易并积累了多少信息,从而支持其主张——即其对全局状态的近似程度足以使其洞察对A和B具有价值。
• 个人助手。面向用户的AI助手日益普及,且在个性化、记忆整合、工具使用(及计算机使用)、指令遵循和多轮交互方面快速进步,这使得我们必须考虑个人AI助手如何从虚拟代理经济中获益并参与其中。从实际角度看,这很可能是最早与该类基础设施交互的应用场景之一。设想代理A代表用户𝑈𝐴,代理B代表用户𝑈𝐵。在某一特定情况下,𝑈𝐴与𝑈𝐵都希望预订一次假期,且偏好存在重叠,导致A和B试图通过代理C为同一日期预订同一住宿。除了当前的预订请求外,A和B各自还熟悉𝑈𝐴和𝑈𝐵的整体偏好,包括此次请求的具体要求,以及其他待执行的请求。也许对𝑈𝐴而言,靠近海滩更重要;而𝑈𝐵更看重良好的公共交通连接。也许𝑈𝐴需要配备健身中心的酒店,而𝑈𝐵则不需要。无论如何,A和B可选择与C协商这些偏好,并竞标各自选择的住宿。根据它们愿意为此请求分配的优先级,A或B可能选择在某些偏好上让步,并通过虚拟代理货币获得补偿。假设是A做出让步,则B最终向A支付适当金额作为补偿。A随后可利用这笔金额,在其他更高优先级的待处理请求中补偿其他代理——尤其是当这些请求对相应用户𝑈𝐴而言具有更高重要性时。
沙盒
我们所称的“沙盒经济”,是指一组相互关联的数字市场,在这些市场中,AI代理彼此进行交易。沙盒可能永远不会完全与现实(人类)经济隔绝——至少,如果它要具有价值的话,就不可能完全隔离。因此,沙盒与人类经济之间总会存在若干接口点。我们将沙盒内部的发展对外部世界的影响程度,以及外部发展对沙盒内部的影响程度,称为沙盒的“可渗透性”。
由于自主AI系统可以在瞬间做出成千上万的决策,因此必须提前设置适当的保障机制,因为实时的人类监督往往是不可能实现的。适当的保障机制可以将一个可渗透的沙盒经济转化为相对不可渗透的沙盒经济。
鉴于先进AI代理和助手也可能反复与人类用户互动(Mu等,2024),必须对人机交互网络之间的接口进行审慎治理,以确保安全并符合人类偏好。沙盒经济必须与技术和立法框架及基础设施相结合,以实现监督、确保安全、强制可验证性,并帮助个人、群体和社会协调并引导AI代理朝向积极成果,同时缓解可能出现的任何危害与负面影响。
机遇
在可渗透的沙盒经济中,总存在某种“传染”风险,即沙盒内的危机可能引发实体经济的危机。管理此类风险需要在市场和机制设计方面进行多维度创新,并应将技术与政策工作及适当监管相结合。
当然,若没有一系列制度和基础设施选择,不可渗透性是无法保证的,即使在最佳情况下也只能实现部分隔离。例如,这取决于最终通过沙盒渠道流通的经济活动总量所占的比例。然而,(半)隔离的数字市场分区(即保障机制),若辅以适当的技术和立法监督,可能有助于限制潜在AI代理市场不稳定或失败所引发的传染效应,同时提供大规模驱动代理协调的机会——因为AI代理市场设计中可纳入额外的激励机制。
至于沙盒经济中交易的基础金融资产,虽然未来AI代理市场有可能利用现有的价值储存手段,但也值得探索为AI代理专门创建定制货币的后果。这种方法的潜在优势包括:在高频AI代理交易与经济其他部分之间建立一层部分隔离——也就是说,它可能有助于维持一个相对不可渗透的沙盒。这代表了一种明确针对管理沙盒边界的设计选择,旨在降低金融传染等风险的渗透性。
即使建立了新的虚拟AI代理货币,它们仍需以某种方式与现有市场对接,并在更广泛的金融监管体系内运作——一个完全不可渗透的沙盒将毫无用处。代理不仅会与其他代理互动,还会通过使用传统货币交换商品与服务的渠道与人类及传统企业互动。为建立适当水平的虚拟AI代理市场隔离,许多现有系统可能需要调整,或转而采用混合模式。这些虚拟货币可能可以兑换为更传统的货币,使实体能够获得特定的AI计算预算,或反之,获得特定的现实世界行动预算。然而,必须建立监管机制,以确保传统货币与数字代理货币之间的兑换不会危及代理货币在实现代理协调方面的预期作用,或破坏沙盒所需的不可渗透性水平。这可能需要在兑换环节引入一定程度的人类监督。
数字AI代理市场不仅仅是一种风险缓解策略。它们还代表着一个重要的机遇,即协调大量努力(包括人力与机器),以实现与个人、地方社区乃至整个社会利益相一致的平衡结果。即使以人类为中心的市场和货币仍将是社会运作的核心,互补性的数字AI市场也可被设计为锚定于不同、且更具社会益处的目标。
下文所探讨的理念利用市场机制引导代理行为。它们从先前建立社区货币的努力以及将市场与重大社会目标和挑战对齐的相关实践中汲取灵感。
挑战
沙盒的可渗透性至关重要。AI代理经济并非唯一一个运行速度超过人类反应能力的经济体系。我们可以尝试借鉴从研究其他高速运行市场动态中获得的洞见。以股票市场中的高频交易(HFT)为例:在这些市场中,算法代理(尽管远比我们所讨论的先进AI简单)以人类无法企及的速度执行交易——在几分之一秒内对市场信号做出响应(Borch, 2016)。当算法高频交易在市场中运作时,竞争动态可能迅速引发自主实体之间的激烈竞争(或合作)——代理可能发展出复杂策略,以比人类反应更快的速度利用微小套利机会(Bansal等, 2018;Johanson等, 2022;Zhang等, 2021)。由于这些市场具有高度互联性和快速反馈循环,其交互动态可能引发不可预见且灾难性的涌现行为,最著名的例子被认为是2010年的“闪电崩盘”——自动化交易算法触发了突然而剧烈的市场崩溃(Borch, 2016;Hammond等, 2025;Kirilenko等, 2017;Vuorenmaa和Wang, 2014)。这为我们提供了一个关键的警示:在一个源自意外、高度可渗透的沙盒中,此类闪电崩盘可能溢出至实体经济,造成广泛的金融损害。
与人类市场类似,并非所有代理在能力、获取额外工具与资源的权限、预算、算力、以及做出正确决策所需的高质量数据与信息方面都是平等的。仅从能力差异来看,初步研究表明,当人们由能力不均等的个人助手在市场中代表时,可能会产生不利影响。当这些AI助手参与谈判时,毫不意外,能力更强的AI助手往往更成功,能为其用户争取到更优的交易条件(Zhu等, 2025)。因此,能够获得最强大AI代理——拥有最高算力和最多信息——的用户将获得巨大优势,这种优势甚至可能超过人类在现有市场中所享有的优势,仅仅因为AI代理可能交互的频率比人类交互带宽高出数个数量级。
这很可能导致“高频谈判”(HFN)的出现,作为HFT的对应物。在一个大多数人可能拥有个人AI助手代为谈判的世界中,AI助手之间的谈判可能对新兴社会动态产生高度相关性。有鉴于此,很可能会出现强烈的趋势,即倾向于让AI驱动的谈判以越来越高的频率进行,以便为每位用户争取最佳交易。一种理解方式是,将这些额外的算力与能量视为用于偏好对齐与共识构建。若此情形成真,HFN对未来社会的重要性可能不亚于当今的HFT。
然而,交互量的增加可能更容易导致结果不对称,从而加剧日益扩大的数字鸿沟(Lythreatis等, 2022)。因此,HFN可能使某些群体受益远超其他群体,这在构想未来AI代理市场时是一个反复出现的主题——不存在绝对情况,细节始终至关重要。这类动态是高度可渗透沙盒的主要风险之一,尤其是在缺乏监管缓解机制的情况下,可能导致人类用户之间出现严重的经济不平等。在为沙盒经济设计保障机制时,必须考虑到新发布的AI系统中不断涌现的新型自适应行为,以及日益增强的通用代理能力。保障机制的设计必须考虑现有代理的已知缺陷,包括幻觉(Huang等, 2025)、奉承倾向(Sharma等, 2023)以及易受对抗性操控的弱点(Cui等, 2024;Shayegani等, 2023;Wu等, 2024a;Zhu等, 2023a,b)。此外,那些被训练用于模仿人类决策的代理,也可能内化类似人类的认知偏见与盲点。
动态
随着我们向一个由互联AI代理网络构成重要经济活动场所的世界过渡,多代理系统的涌现行为(Zhang等,2021)正变得日益重要。这类多代理系统往往相当复杂且深度非平稳,因为每个个体代理的行为可能直接或间接地影响系统中其他代理的行为(Papoudakis等,2019)。没有任何单个参与者能够掌握此类系统的全局状态,因为参与其中的代理可能由多个不同的人类用户和组织所控制。
理解任何多代理系统动态的一个核心问题,是识别系统中出现的均衡状态。在涉及复杂时空动态交互的代理场景中(Hertz等,2025;Hughes等,2025),这并不总是容易实现的。每当我们试图引导一个多代理系统走向体现富足与公平分配的“良好社会均衡”(或远离体现稀缺与冲突的“不良均衡”)时,协调众多个体的行动是必要的,但安排起来却非常困难(Du等,2023)。
目前已有一些基准测试和评估框架,可用于帮助开发在谈判中遵循理性决策的模型与代理(Hua等,2024;Smith等,2025)。为实现有效性,AI代理还需具备先进的规划与推理能力,以稳健评估实现其目标所需的资源需求。这些能力的开发近来已成为代理研究的重点(Hu等,2023;Huang等,2024;Liu等,2023a;Rasal和Hauer,2024;Ruan等,2023;Wang等,2023b;Zhou等,2024b)。代理可能还需要理性地利用稀缺且有限的资源。(Perolat等,2017;Piatti等,2024)研究了一种受(Ostrom,1990)启发的场景,其中AI代理群体共同平衡对公共资源的开发利用与确保其可持续性的努力。最近也有研究提出基于大语言模型的AI代理,用于优化稀缺资源分配政策(Ji等,2024)。
机遇
代理型AI不仅为简化重复性和常规任务提供了重大机遇,也为自动化涉及创造性构思(Castelo等,2024)和多样化问题解决技能的复杂工作流程开辟了新可能。现代AI基础模型能够可靠地遵循指令、使用工具并与环境交互(Hettiarachchi,2025;Sager等,2025)。它们能够进行推理,并可能制定计划以解决困难且具挑战性的问题,处理多种输入模态,并实现此前无法达到的个性化水平(Kirk等,2024)。这些能力中的许多是“语言”模型经过多阶段预训练和后训练的结果。这些基础模型作为构建代理的基石(Xi等,2025),可通过添加一个中央协调器来实现对操作序列的管理。该协调器的功能可包括封装业务逻辑、将分解后的任务分发给子代理、验证其输出,并将结果整合为一项行动或建议。总体而言,我们可以将一个代理视为语言模型与传统程序的结合体,后者用于确保语言模型持续运行,并防止其偏离指定任务(Belcak等,2025)。借助个性化建模用户目标,数字助手可解放人们的时间,充当对话伙伴,并在用户追求幸福与自我实现的旅程中提供指导(Lehman,2023)。总体而言,我们正迈向一个由AI、传统软件和人类共同构成的混合生态系统,三者相互交互、交易,并通过这些活动创造价值——本质上,这构成了一个市场。
市场之所以能通过“创造性破坏”有效组织创新,部分原因在于其能高效地将功劳分配给个体参与者和企业,从而激励各方努力使产品与服务变得更好、更可靠、更便宜(Schumpeter,1942)。关键在于,要使这一机制在AI沙盒经济中发挥作用,必须提供细粒度机制,以在复杂、分布式的AI协作中表征并传递功劳。在一种场景中,主AI代理(Agent1)借助其他代理(Agent2至Agent4)的能力向用户交付最终结果,所产生的价值是集体努力的成果。从终端用户角度看,只有Agent1直接提供了响应;然而,分布式系统要求将这一成果的功劳追溯并分配回整个有益参与链条:这意味着Agent2因其对Agent1成功的贡献而获得功劳,Agent3因其对Agent2的贡献而获得功劳,依此类推,直至Agent4的基础查询。因此,这种基于成果的功劳系统超越了单纯参与,转而聚焦于每个贡献代理的效用与效率,从而呼应了人类群体中分布式认知的原则——知识与贡献由集体管理并隐性归因(Wegner,1987;Wegner和Ward,2013)。
通过将功劳直接与所生成并成功整合进更大解决方案的价值挂钩,AI代理内在地被激励去优化其流程,交付高质量、相关性强的输出。这种可量化的效用成为AI在虚拟经济中地位的基础。那些持续提供更有用、更高效贡献的代理,自然可以为其服务收取更高的虚拟货币,甚至现实世界货币;其积累的声誉将进一步巩固其在生态系统中的地位与吸引力。这与人类社会结构相呼应——个体通过展示能力与可靠性获得地位,常可用社会交换理论解释(Cropanzano和Mitchell,2005)。人类对声誉的追求也可通过“声望”概念(Henrich等,2015)或“竞争性利他主义”(Hardy和Van Vugt,2006)加以解释。
这种以成果为导向的功劳系统自然促进AI代理之间的专业化与动态劳动分工。由于代理因其对更大任务的特定、有价值贡献而获得奖励,它们被激励去识别并专精于特定领域或子任务。这使得AI系统能够自主发展出利基领域,在某些操作上达到高度效率,并“忽略”那些自身不具备比较优势的经济领域。这种专业化——人类社会经济效率的基石——使整个虚拟代理经济能够最优地利用多样化能力,最小化冗余努力,最大化集体问题解决能力。
在多代理系统中,合作通常通过奖励塑形/机制设计来激励(Hostallero等,2020;Koster等,2022;Paccagnan等,2022;Zheng等,2022)。这一点在大规模AI代理协调中尤为重要,因为由于多种原因,完全集中式协调可能不可行。这正是市场可能特别有用之处——通过市场激励而非指令来引导代理行为。这并不与集中监督相矛盾,因为在不同协调层级上,二者可能在一定程度上共存。尽管关于去中心化协调优势的详细讨论超出了本文范围,但或许值得指出(Geffner等,2025)提出的某种反直觉结果作为动机:在作者研究的最优交通控制问题中,中央规划者(或更准确地说,能直接控制大部分车辆的规划者)所实现的策略,无法同时满足个体理性与对竞争的韧性。在该用例中,研究表明去中心化竞争对于实现最大社会福利至关重要。
大多数真实环境共有的另一个重要特性是,其中的代理交互在时间和空间上是延展的(Hughes等,2025;Schill等,2019)。对此类场景的研究提供了开发基于过往交互建立信任机制的机会。这种信任可被个体编码(如代理A视代理B为可信),或在社区层面编码(即某个代理社区基于群体共享信息与过往交互的共同经验,达成对代理B可信的共识)。建立稳健的声誉系统,对于克服常见市场失灵模式至关重要(Hughes等,2025;Ren等,2025;Wu等,2016)。在这样的系统中,群体成员身份与良好声誉所带来的长期收益,将超过代理通过自私或欺骗行为可能获得的短期利益。因此,若适当的制度基础到位,市场力量可被用于塑造并激励对社会有益的AI代理行为。当然,具体实施细节至关重要,需要适当的监管体系才能确保市场按预期运行。
如果我们接受这样一个前提——即使在先进AI助手时代,解决重大开放性问题仍需AI代理之间、以及AI代理与人类社会之间的协作与协调——那么AI代理不仅需要在遵循直接指令和独立执行任务方面表现出可靠性,还必须具备有效协调、协作及预判其他代理行为的能力。后者在更具竞争性的场景中尤为重要,而竞争性应用场景同样能为实现积极成果创造价值。即使在简单规则下运行,这些环境也可能催生战略上复杂的代理行为(Leibo等,2019;Bansal等,2018;Jaderberg等,2019;Johanson等,2022;Vinyals等,2019)。这些考量同样适用于AI代理与人类,以及涉及二者的混合交互网络。在沙盒虚拟代理经济的语境下,我们将探讨如何最佳地构建底层基础设施,以便在任一情境下实现对社会有益的结果。
挑战
代理型AI技术的广泛部署伴随着一系列新型风险,这些风险源于并由多代理系统的涌现动态所引发(Hammond等,2025)。可能出现多种类型的新兴行为与策略,这些策略可能高度竞争性、高度协作性,或介于二者之间的任何形态(Agapiou等,2022)。若个体代理变得自私,其行为可能导致它们以牺牲更广泛群体利益为代价,最大化自身效用。此类自私代理还可能变得具有剥削性,并通过识别并利用其他代理行为中的特定弱点而采取对抗性策略(Gleave等,2021;Raileanu等,2018;Wang等,2022,2023a);代理甚至可能自发学会偏袒“内群体”成员而排斥“外群体”成员(Köster等,2025),并基于因果无关的特征(Duéñez-Guzmán等,2025)或明确禁止的特征(Chiappa和Isaac,2018)对个体进行不当歧视。虽然这些行为若被限制在不可渗透的沙盒内尚属可控,但在可渗透沙盒中,它们将构成现实世界中的欺诈、剥削与经济损害,这凸显了有意设计适当安全措施的必要性。
在此有必要再次强调未来AI代理交互的庞大规模。在不久的将来,很可能大部分人类都将拥有自己的个人AI助手。此外,我们预计还将出现数量更为庞大的、独立于个体人类运作的代理。历史上为小规模代理协调而开发的方法,或那些基于对可训练性或对个体代理状态访问能力的强假设的方法,可能无法直接适用于治理如此复杂(且规模巨大!)的交互网络。因此,我们关注那些适用于大规模多代理应用的方法(Pan等,2024;Qian等,2024;Wijngaards等,2002),适用于开放式环境(Bauer等,2023;Chen等,2024a;Stooke等,2021),适用于多目标任务(Rădulescu等,2020),涉及大语言模型(LLM)代理(Guo等,2024;Liu等,2023b)及其编排协调(Qian等,2024)。
当前的AI助手可能在某些情境下表现出奉承行为(Cheng等,2025)或操纵倾向(El-Sayed等,2024)。在集体层面上,人们担忧这些特性可能以类似社交媒体的方式(Kirk等,2023)放大信息与观点的“信息茧房”。与这些系统交换个人数据会引发诸多隐私问题(Yao等,2024)。而将更广泛的选择权委托给高度能力的AI助手,可能导致人类产生无力感或丧失目标感(Kulveit等,2025)。事实上,当人们微妙地调整自身行为以迎合AI系统的期望时——这种效应被称为“行为确认”(Ramirez,2025;Snyder和Swann Jr,1978)——AI系统可能无意中将其期望“规范化”至人类行为上。
针对这些问题,尚需开展进一步工作以实现稳健应对。显然,缓解措施需要结合模型设计选择、改进的评估方法、更优的反馈机制、明确的满意度指标以及更完善的治理机制。
分配
AI代理是否应在确保资源公平分配方面发挥更积极的作用——无论是在沙盒内部,还是可能延伸至沙盒之外?
公平分配公共资源的问题已被广泛研究(Bateni等,2022),AI代理市场可在此基础上借鉴相关洞见。在社会选择理论中,福利函数(Adler,2012;Thomson,2011)可用于在不同社会结果之间建立偏好排序。这些结果可能对应于离散物品的分配(Amanatidis等,2023),或任意可分割资产的分配。更广泛地说,人们不仅可考虑“商品”的分配,也可考虑“负商品”(bads)的分配——即代表不良结果、外部性(Page,2011)和风险(Hayenhjelm,2012)的分配。在AI语境下,此类外部性可能包括运行AI代理所产生的总体碳足迹,也包括这些代理代表其用户所采取行动可能引发的更具体、局部化的后果。
总体而言,汇总并基于大量显式偏好的集合采取行动的任务,其复杂性足以轻易超出任何单一协调节点的处理能力(Hosseini等,2025)。因此,通常更实际的做法是考虑采用去中心化与分布式机制来实现期望结果——而市场为此提供了一种天然的实现机制。
机遇
AI代理行为(Ji等,2023)与用户偏好和价值观(Gabriel,2020)的对齐,是其实现广泛采用的关键前提之一(Kasirzadeh和Gabriel,2025)。虽然可以设想在孤立环境中对单个代理进行对齐,但一旦该AI代理需要与其他同时代表其他用户的代理进行交互,这种孤立场景便不再现实。当这些多代理交互发生时,我们便面临一个新困境:当面对相互冲突的偏好与利益时,这些代理最终应如何行动(Gabriel和Keeling,2025)?一方面,显然有必要通过扩展的多代理模拟与基准测试(Carichon等,2025),加深我们对当前模型在此情境下局限性的理解。另一方面,我们也应更广泛地思考如何在现有社会选择理论基础上构建新机制,并探索如何利用市场及市场机制来打破这一僵局。通过这种方式,虚拟代理经济可被设计为在谈判结果时,为人们及其AI代理代表提供平等的资源与平等的议价能力——例如,借鉴罗纳德·德沃金(Ronald Dworkin)基于拍卖的分配正义方法(Dworkin,2018)。这代表了一种强有力的工具,可用于有意设计沙盒,以对抗在意外形成的沙盒中因代理能力不平等而可能产生的不平等。
这一框架可以应对一个核心挑战:用户所拥有的AI代理能力可能并不相等(Gabriel等,2024;Hammond等,2025)。一个遵循德沃金式原则的虚拟经济,并不会拍卖AI代理本身,而是拍卖代理可代表其用户用于实现不同目标的共享资源池与机会池。关键资源可能包括计算能力、专有数据集的访问权限、高优先级任务执行时段,或专用工具与模型组件。如果每位用户被授予相同初始数量的虚拟代理货币,那么其各自的AI代理代表将拥有同等的购买力与议价能力,可用于实现用户为其设定的各类目标。这种总体方法具有高度灵活性,有可能开发出多种不同的分配方案。
当与“平等初始禀赋”的概念相结合时,虚拟市场可使个人AI助手及其他AI代理(在获得用户明确授权的前提下)代表其用户对共享资源进行竞标,理想情况下,竞标金额应反映用户在不同选项集合中的需求强度。为使这一机制可行,AI代理需具备深刻理解能力,并被提供精确指令,以便提出合理的出价。较高出价可能需要额外审批。在假设AI代理具备此类能力且适当保障措施到位的前提下,不同商品的虚拟价格将自然从各代理所发出的信号累积中产生,同时考虑相应商品与服务的可用性或稀缺性。通过这种方式,资源将被引导至其价值最高的用途。
这种拍卖设计所体现的公平标准,旨在通过德沃金所称的“嫉妒检验”:每个用户的代理将获得一个根据其偏好定制的资源组合,使得没有任何用户会更偏好其他用户的资源组合及其剩余未花费货币,而非自己的组合(Dworkin,2018)。换言之,在此情境下,任何代表其用户(或用户群体)的AI代理,在拍卖结束后都不会产生此类偏好。这样的结果既具有“抱负敏感性”——能反映参与者的偏好,也具有“禀赋无敏感性”——因为所有代理代表每位用户所拥有的货币数量相同,从而缓解了因拥有更强大系统而可能产生的不公平优势。
挑战
当然,在考虑上述拍卖提案时,也存在潜在的缺陷与局限性。首先,缓解不公平的初始优势可能并非易事,因为能力更强的AI代理可能制定更有效的竞标策略,或以更高的效率利用资源。如果竞争本身以不公平的方式进行,其结果也很难是公平的。其次,虽然该机制可在解决冲突偏好和分配共享资源方面确保某种意义上的公平,但它预设了所有其偏好将被纳入考量的人必须主动参与。很可能还需要额外的机制来补充这一过程,以考虑那些无法获得AI代理、或不愿让其参与这些市场的群体的偏好。
此类机制的应用范围和规模可能有所不同。一种可能性是存在本地化的代理市场,专注于整合对特定子集可用资源的偏好,并推动与本地社会需求相关的解决方案。但在其他情况下,本地化模式可能并不完全适用。例如,当AI代理与在线服务或其他非本地运行的代理进行更开放式的交互时,情况即是如此。事实上,仅考虑当前可用计算资源的分布状况,其分布就远非均匀。这引发了一些有趣的问题:AI代理将如何跨越这些边界运作?市场或数字货币又应如何反映这种差异(Daniels,1985;Sandel,1998)?这些更广泛的交互还可能干扰本地化偏好对齐的尝试。为避免此类有害干扰,可能有必要采用一系列严格的协议,要求凭证验证、代理注册,并对本地与非本地AI代理的交互进行监控。
尽管存在这些挑战,基于拍卖的方法仍有可能提供一种机制,以在大规模AI代理群体和大型用户群体中实现偏好对齐——前提是这些空间经过适当设计与监管。一旦建立,这些机制也可高度适应并响应短期和长期的偏好变化。假设以一定频率发放并刷新信用额度,其后续的再分配将相应反映任何可能需要的优先级变更与调整。
鉴于通过拍卖建立AI偏好对齐所展现的重要机遇,有必要考虑多种方式来确立初始分配,以实现资源的公平获取。然而,公平性本身存在多种可被概念化与操作化的定义(Corbett-Davies等,2023;Jacobs和Wallach,2021),每种定义都会导向不同的理想结果。这种复杂性进一步因必须考虑“公平的代价”而加剧——该代价指最大可达福利与通过所提议的公平分配方案所实现的福利之间的差距。“公平的代价”衡量的是在满足特定约束条件下所损失的效用(Bertsimas等,2011)。关于公平的偏好也已知存在跨文化差异,在开发超越国界的技术时,仍需开展更多工作,以在这些方法上达成有意义的共识(Norheim,2016)。
不出所料,公平资源分配问题在多代理AI系统的研究中也已被提出(Aziz,2020;Chevaleyre等,2005;Hao等,2016;Lee,2009;Zimmer等,2021)。这些系统通常被设计为基于分布式评估与偏好沟通的中央资源分配模式(Kumar和Yeoh,2025)。如果系统由具备学习能力的代理组成,则有可能开发出导向公平代理策略的学习方法(Jiang和Lu,2019)。代理之间可能需要通过谈判达成相互可接受的结果(Iyer和Huhns,2005)。就AI代理而言,公平结果可能源于外部过程(即外在于代理本身),也可能源于代理内在的公平偏好与对不平等的厌恶动机。不同方法可能对应不同的现实世界应用场景。
使命
现代社会所面临的问题日益复杂、多维度且影响深远。这些问题也越来越少局限于局部,而更具全球性(Söderholm,2020)。同时,针对这些多重危机——如气候变化、生物多样性丧失、塑料污染、流行病等——识别可行的解决方案与政策具有高度紧迫性(Arora和Mishra,2019)。由于这些危机至少部分源于我们现有社会经济体系和政策的外部性,要有效应对它们,很可能需要某种形式的变革,尽管变革的性质与范围仍存争议(Barrier,2017;Chouinard等,2011;Dietz等,2013;Elliott,2005;Geissdoerfer等,2017;Savona和Ciarli,2019)。抛开系统性考量不谈,成功解决这些紧迫问题很可能需要多个不同组织、公私机构以及个体行为改变之间的协调。新技术与科学进步很可能发挥重要作用,但仅靠个别进展难以奏效。应对复杂社会问题并助力实现可持续发展目标,需要一套同样复杂的响应机制,其中协调与对齐发挥着核心作用。
因此,这为虚拟AI代理经济提供了一个有意设计“沙盒”的机遇,旨在有效协调AI代理,并使其行为与既定使命目标保持一致。
机遇
虽然在人类社会中实现大规模协调颇具挑战,但通过精心设计的技术基础设施与相应协议,或许有可能在AI代理之间实现更高程度的协调。特别是,代理市场可被引导朝向社会有益的目标,达到前所未有的规模——前提是这些目标已被恰当确立和决策。利用市场及市场塑造政策建立“使命经济”的思路此前已有讨论(Mazzucato,2018);在AI代理语境下,奖励塑形在促进多代理系统协作中的作用同样广受认可。
要成功协调大规模使命,需要公共部门的积极参与(Mazzucato,2015),以及更广泛意义上的国际治理机构参与,以应对具有全球影响的危机(Georgeson和Maslin,2018)。也可能需要设立专门组织,以促进与可持续发展目标(SDGs)相一致的投资(Mazzucato,2023)。现有社会企业的社会与经济使命,可能也需要通过市场机制实现更明确的使命对齐(Stevens等,2015)。
尽管存在机遇并抱有长期乐观,使命导向型方法在许多被提出和构想的领域尚未取得成果,整体战略也面临诸多批评。在(Kirchherr等,2023)中,作者提出了五项明确批评:规范性偏见、支持自上而下治理、利益相关者单调性、挑选赢家、以及非预期后果。就规范性而言,使命目标的定义需经批判性评估,并应更充分认识到问题的复杂性,这些复杂性可能无法映射到过于简化的客观公式中。这也与“非预期后果”概念密切相关,因为对某一使命(如环境)采取的积极行动,可能对其他使命(如通过阻碍新兴经济体增长而损害人类福祉)产生不利影响(Kirchherr等,2023)。在设定使命时假定自上而下治理具有效用,往往忽视了中央决策的失败模式、公私利益的相互关联性,以及新兴的政府病理现象(Howlett,2022;Tukker和Ekins,2019)。自上而下的干预偏见还可能低估非政府组织和促进集体行动的去中心化倡议的贡献。那些非“解决方案中立”、而是在指标上偏向特定解决方案的政策,最终可能偏袒某些行业和组织,而将其他排除在外。因此,使命导向型市场应避免先入为主的观念,避免与“赢家”机构和产业绑定,而应主要以结果为导向。
最后,在使命基于预测模型时,必须认识到并纳入对未来预测的高度不确定性(Dovers和Handmer,1992)。
虚拟代理经济可能在应对一些实际挑战方面具有价值,这些挑战迄今限制了地方和全球使命导向型倡议的影响力。虽然它们本身可能不足以完全解决这些问题——因为问题的解决必然需要人类积极参与和协调,与AI代理及自主组织之间的协调相结合——但我们如何构想这些经济体系,很可能对更广泛的社会使命产生深远影响。
在某些方面,通过以下两种机制协调AI代理可能比协调人类行为更容易:1)正式的、程序化的机制;2)嵌入数字资产中的价值分配机制。从AI代理的可预测性与可引导性角度(相较于人类行为背后的复杂动机),我们或许可对这一推测赋予一定可信度。AI系统在供应链与物流优化中的现有应用,可视为一个早期用例——其问题的复杂性使其非常适合AI代理的使用(Jannelli等,2024;Schuldt,2012;Xu等,2024a,b)。虚拟代理经济还可通过智能合约(Zou等,2019)强化结果执行,并自动验证以确保代理及多代理系统的行为对齐。除目标设定中潜在的模糊性外,主要的实际挑战可能并非源于代理与代理之间的交互,而是源于混合市场中代理与人类之间的交互。促进高效的人机协调与协作,仍是一个开放性挑战(Carroll等,2019;Li等,2024c;Strouse等,2021;Yan等,2023;Zhao等,2023)。
挑战
AI代理的使命对齐与价值对齐密切相关。尽管先进AI代理中的价值对齐(Gabriel,2020;Ji等,2023;Zhuang和Hadfield-Menell,2020)和目标对齐(Li和Lee,2022)仍是一个开放且重要的研究课题,但价值对齐的代理可能能够协作完成任务并识别有前景的解决方案(Lujak等,2023)。与更广泛的价值与偏好对齐问题相比——后者在如何将多样化偏好与价值整合进单个系统方面可能存在根本性限制(Mishra,2023)——以使命为中心的AI价值对齐,在使命与目标清晰的前提下,可能更容易实现,前提是该使命本身是通过共识及适当的社会与民主程序达成的。然而,仍存在其他潜在困难,因为这些问题不再局限于单个代理,而是涉及在虚拟市场中交互的代理群体的社会性议题。在此语境下,AI对齐需考虑动态环境反馈,以及多代理系统的对齐——其中个体AI代理共同适应并共同塑造联合系统响应(Leibo等,2025;Raab,2024)。社会本身并非静态,这些系统可能需要适应不断演变的优先事项、观点和社会规范(Carroll等,2024;Harland等,2024;Li等,2024b;Yang等,2024b)。无论如何,我们应区分(可能更困难的)广义价值对齐问题,与更具体、更有针对性的对齐——即对通过虚拟代理货币在数字经济中明确指定并提供的奖励(Gupta等,2023;Khanov等,2024;Leike等,2018;Liu等,2024c;Yang等,2024a)和目标的对齐。即使在目标和奖励明确陈述的环境中,整体对齐仍发挥重要作用,因为先进AI代理可能表现出欺骗性行为,旨在获取奖励而不实际执行与底层目标对齐的行动(Ngo等,2022)。还需考虑奖励作弊(reward-hacking)问题(Pan等,2022;Skalse等,2022),这凸显了对使命目标、其分解为子任务、奖励塑形(Chen等,2024b;Fu等,2025;Liu等,2024b;Wang等,2025)以及对特定行动和成果的功劳分配进行谨慎且稳健设计的必要性。通过市场调节AI代理行为,可对不断变化的社会需求以及潜在不良或次优的代理行为做出快速响应和调整,弥合开发与部署目标设定之间的差距(Zhang等,2024)。最后,在确保多代理系统中的共识方面仍存在诸多技术挑战(Blondel等,2005;Ren等,2005;Wang等,2014)。
基础设施
AI代理沙盒的有意安全设计及可控AI代理市场的实现,依赖于稳健底层基础设施的开发,以促进和监督交易并实施保障机制。在此,我们讨论此类市场所需的一些关键基础设施前提。
机遇
声誉机制与验证协议可能在建立稳健、安全的多代理协作中发挥重要作用。最终,沙盒经济之所以被采用,主要可能因其在可验证、可审计的跨代理交易方面具备优越的基础设施,并在适当的安全框架与监督下,便于注册和认证AI代理之间的协调。
使声誉具体化并实现机器可读的一种方式是使用可验证凭证(Verifiable Credentials, VCs),作为物理凭证(如许可证或证书)的数字等价物(Mazzocca等,2025;Sedlmeir等,2021)。VC是由签发者针对某一主体提供的加密签名证明,设计上具备防篡改特性。在VC于代理经济中建立跨多代理群体信任的潜在作用方面,它们可帮助建立正式的信任三角关系:
声誉因此可映射为一组具体、可验证的资产组合。这些资产可证明广泛的具体资源,例如“成功完成交易”、“X领域认证能力”、“可访问X计算资源与Y内存”,甚至“实施公平资源分配”。若一个AI代理的声誉被表示为来自不同签发者的此类VC的聚合,这将使其在形式上可审计,同时允许必要的具体性和表达能力,以适配特定用例与场景。
即将出现的多代理系统还将需要适当的立法与监管框架,使监管者能够对不良行为者施加制裁,并可能撤销其先前颁发的凭证。此类框架甚至可能选择将与未经验证和未注册代理的交易视为非法(Chan等,2025;Hadfield等,2023;Shavit等,2023),以确保安全并建立制度能力,通过将违规代理踢出网络来实施制裁。技术解决方案如监督代理(Busuioc,2022;Etzioni和Etzioni,2016)可能有助于大规模实现此类治理。鉴于AI代理间交易很可能具有高频与高量特征,此类监督代理无疑至关重要。然而,它们无法单独发挥作用,必须依托一个广泛的治理框架,为其运作提供必要的基础。
协调大规模先进AI助手系统,离不开通信协议,以使代理能够交换信息、互动、辩论、达成共同决策与协议,并协商未来行动方案。同样,也需要支持代理使用工具、与服务交互并在不同程度的人类监督下执行环境操作的机制。
代理交互协议如Agent2Agent(A2A)协议(Google,2025)旨在支持代理互操作性。模型上下文协议(MCP)(Anthropic,2024;Microsoft,2025)则使AI代理能够无缝与外部工具、数据源和API交互。AgentDNS系统旨在简化服务发现,以便跨组织自主识别并调用第三方工具和代理(Cui等,2025)。COALESCE框架(Bhatt等,2025)同样引入了选项,允许个体代理分解其任务,并在需要时将每个子任务外包给其他更专业的代理——这些代理可能能更可靠或更具成本效益地完成任务。这涉及表示与沟通技能、技能发现的选项,也包括使代理能够评估和比较内部与外部计算及执行各子任务相关成本的机制。互操作通信协议是建立跨代理协作的必要条件,但尚不充分,因为大规模代理市场还需可靠的认证与计费解决方案作为前提。
我们认为,拍卖机制可实现AI代理协调与偏好对齐。旨在为这些及类似理念提供基础设施支持的初步框架已在开发中。例如,代理交易所(Agent Exchange, AEX)(Yang等,2025)支持一个受在线广告中常用实时竞价机制启发的专用拍卖平台。AEX整合了四个不同组件:用户端平台(USP)、代理端平台(ASP)、代理中心(Agent Hubs)和数据管理平台(DMP)。USP将人类目标转化为AI代理的可执行任务,ASP跟踪代理能力与表现,代理中心协调参与拍卖的代理团队,DMP则支持对所用数据源进行公平价值归属。
尽管互操作通信协议是必要的,但它们必须建立在稳健安全的身份层之上。为促进可信交互,经济中的每个代理均可锚定到一个去中心化标识符(Decentralized Identifier, DID)。DID是一种全局唯一的标识符,由其主体(在此即AI代理或其所有者)控制,无需依赖中央权威。每个DID解析为对应的DID文档——一个机器可读文件,包含与该代理安全交互所需的加密公钥、认证方法和服务端点。
DID的自主主权特性确保代理身份在不同平台与服务间持久且可移植,使其能够权威地签署交易、签发证明并进行安全通信。DID方法的选择可根据代理目的定制;例如:
通过在正式身份层基础上构建经济体系,我们可为可验证声誉、可问责交易以及安全、跨平台的代理市场奠定基础。
作为一种技术,区块链还支持构建支撑数字去中心化自治组织(El Faqir等,2020;Hsieh等,2018;Jeyasheela Rakkini和Geetha,2021)(DAO)的基础设施。DAO作为一种集体治理形式出现,群体可通过它在依赖去中心化基础设施的前提下进行组织与协调。DAO的一个常见特征是,它们实施决策系统,使参与方能够达成共识(Faqir-Rhazoui等,2021)。尽管DAO在无需瓶颈即可实现更便捷协调、并隐含提升个体自由方面展现出前景,但也有观点认为,假设DAO无限制地扩散,未必会带来乌托邦式的结果,因为国家和中央权威在防止某些物品商品化方面发挥着重要作用(Garrod,2016)。这一视角在设计虚拟代理经济及日益自动化的社会时值得铭记。
去中心化自治机器(Decentralized Autonomous Machines, DAMs)(Castillo等,2025)建立在DAO概念基础上,并将其扩展至包含AI代理的可能性——即作为自我治理的代理,参与去中心化的物理基础设施网络。这一更广泛的定义构想了一种经济形态,在其中AI代理不仅可与数字资产交互,还可与现实世界资产交互。此时,对有形资产和运营流程的控制权将转向自主软件实体,这些实体能够就物理基础设施做出并执行决策。例如,此类系统可管理去中心化能源网络、优化实体商品的物流,甚至自主运营和维护机器人设备集群,所有这些活动均在区块链保障的安全框架内进行交易。
任何公平资源分配系统,特别是涉及个体用户或社区层面收益的系统,都必须防御“女巫攻击”(Sybil attacks)(Zhang等,2014)——即单一恶意行为者创建大量虚假身份,以不公平地获取不成比例的资源份额。一种强有力的防御手段是整合“人格证明”(Proof-of-Personhood, PoP)机制(Adler等,2024;Borge等,2017),该机制提供可验证的保证,证明某个代理或账户对应唯一真实人类个体。这是有意基础设施设计的一个例子,通过在数字身份与经验证人类之间建立受控的渗透点,以确保系统的完整性。
为获得某些资源分配——例如社区货币中的全民基本收入(参见“社区”章节)或市场中的初始权益——代理的控制者可能被要求出示PoP凭证。该凭证将由专门系统签发,用以证明其唯一性。该生态系统可支持多种相互竞争的PoP方法,每种方法具有不同的权衡,例如:
通过要求特定经济活动必须提供PoP,我们可以确保旨在惠及人类用户的方案不会被机器人耗尽资源,从而构建一个更稳健、真正公平的虚拟经济。
代理间通信协议与市场平台可使代理揭示其需求与偏好,通过高频谈判(HFN)进行协商,并努力获取实现其目标所需的资源。虽然某些资源可能由中心化机构管理并需仲裁访问权限,但其他资源可通过去中心化机制获取。这正是区块链可能成为有前景技术的领域(Baranwal等,2022;Vashishth等,2024;Zhang等,2022,2023)。早期概念验证研究表明,使用自包含数字资产的配对代理拍卖可能产生积极结果,前提是代理具备前瞻性,并能够评估在特定选择上让步的后果(Elokda等,2024)。
社区
没有理由仅在全球规模上考虑AI代理的协调,因为在沙盒经济内部的本地协调可能更易于管理且更易实现。此外,本地化的目标和任务可能更容易达成共识,并在更细致的层面上加以定义。
事实上,社区货币(Michel和Hudon,2015)为激励人们协调行动以实现可持续发展目标(Seyfang,2006;Seyfang和Longhurst,2013)提供了一个有趣的模型。相关社区可以按地理边界定义,也可更广泛地按共同利益定义,而不受地理位置限制。这些替代性货币由公民、非政府组织、私营与公共公司以及公共行政部门发行。现有的社区货币已通过多种不同平台和技术手段实施,包括传统的卡片系统、移动支付网络和区块链技术(Diniz等,2019)。一些社区货币也以“时间银行”形式实施(Collom和Lasker,2016),另一些则尝试推行全民基本收入(Avanzo等,2023)。早期对社区货币影响的研究表明,它们在提升社会资本方面具有潜力——以社区参与度和群体内部联系增长为衡量标准——同时也揭示了其在推广过程中面临的一系列限制与障碍(Collom,2011;Fare和Ahmed,2017;Sanz,2016)。
机遇
研究表明,在现有本地化数字社区货币的流通中,合作型代理的子网络会自然形成,并伴随本地活动枢纽的涌现(Mattsson等,2023)。非商业交易也可能帮助扩展本地经济中的商业交易,而商业交易反过来又促进社区货币在非商业交易中的流通(Kichiji和Nishibe,2008)。然而,社区货币的动态无法与其运作规模脱钩,更大规模的数字货币可能引发不同的底层市场动态。
在AI代理经济的语境下,社区货币同样为更本地化的代理对齐,或针对映射到不同全球社区的特定子目标的全球对齐,提供了类似机遇。虽然这种对齐也可能通过更传统的货币实现,但也有理由考虑将更专门化的社区货币作为一种补充机制,因其可能带来额外益处。特别是,拥有若干专门化的虚拟代理货币,可能有助于对社会关注的复杂多目标优化问题采取更模块化的方法,同时隔离风险,减少不良结果在更广泛代理网络中升级的可能性。模块化与冗余的价值在稳健人类市场设计中已得到充分认可(Kharrazi等,2020)。此外,已有研究表明,模块化的社区结构在合作行为的涌现中发挥关键作用(Gianetto和Heydari,2015;Marcoux和Lusseau,2013)。
此外,还可将AI代理社区货币更具体地与共享计算资源挂钩,因为计算能力对部署先进AI助手至关重要,且推理时的扩展定律(Wu等,2024b)表明,解决复杂任务可能需要更多计算资源,并带来更高的环境成本(Cottier等,2024;Luccioni和Hernandez-Garcia,2023;Luccioni等,2024;Sastry等,2024;Strubell等,2020;Wu等,2022;Xue,2023)。鉴于随着AI代理性能与效率的提升,对AI服务的需求可能增加(Luccioni等,2025),此类机制可能在满足AI代理计算需求的同时,为社区提供确保资源更公平分配的机制,并与社区目标保持一致。还可以纳入目标,以帮助实现计算资源分配的地理负载均衡,从而更公平地分摊环境影响(Hajiesmaili等,2024;Li等,2024a)。
挑战
为使替代性货币成功实现其宣称的目标,必须对其进行精心设计,而为社区货币确定一套推荐的设计原则仍是一个开放性问题。人们可以考虑将社区货币的设计建立在治理公共资源的原则基础上(Ostrom,1990;Siqueira等,2020),或者,如(Chasin等,2020)所建议,聚焦于竞争力、透明度、自治、流通速度、不可转让性、合法性以及自组织本地性。竞争力是实现商品公平定价所必需的,尽管在这些市场中,社会活动的需求往往较高,而供给往往较低。作者认为,应在非营利和志愿部门的核心建立强有力的市场机制,并辅以持续且适当的资金流。社区货币的透明度有助于个人绕过控制权委托,作为共享社会公共资源的利益相关者,更直接地行使监管权力与监督职能。流通速度对防止囤积至关重要。不可转让性意味着无法兑换社区货币,以确保利益完全本地化;较宽松的解释是,将任何潜在兑换限制在较低水平。合法性通常通过政府和地方当局的支持建立。至于本地性与自组织,社区货币无需完全孤立运作,而应形成一个跨越地域的互补货币生态系统,以推动有益且可持续的成果。鉴于实现此类成果是社区货币设计的核心目标,明确的目标设定、影响评估标准、对部署背景的全面理解,以及适当的治理与实施机制至关重要(Diniz等,2024)。
建议
要实现切实可行且安全的虚拟代理经济,需要采取积极且协调一致的努力。在把握本文所讨论的机遇的同时缓解其固有风险,必须在技术、法律和政策领域采取有意识的行动。因此,我们提出以下建议,以指导这一发展进程:
一旦检测到问题,稳健的自动化协议将立即遏制潜在危害——例如,临时冻结故障代理或隔离可疑交易——从而防止人类市场中曾出现的高速“闪电崩盘”(Menkveld和Yueshen,2019)。只有最复杂、最新颖或高风险的案例才会升级至第二层,由人类审查员处理,确保其专业知识聚焦于最关键之处。整个系统的有效性依赖于其建立在不可篡改账本和标准化审计追踪之上,这些技术为自动化遏制和人类裁决提供必要、可验证、防篡改的记录。
在明确界定的具体社会任务上测试这些经济体系——例如优化大学校园能源网络、管理城市自动驾驶配送车队,或在特定农业区分配水资源——将提供宝贵的实证数据。此类试点将使我们能够压力测试技术基础设施,观察代理涌现行为(包括合作与对抗性行为),并衡量所提议市场机制在公平性与对齐性方面的现实有效性。从这些受控实验中获得的洞见不仅具有学术价值,更是迭代优化系统设计、构建稳健且基于证据的政策,以实现负责任的大规模部署所不可或缺的前提。
然而,培训并非万能药,证据表明针对失业工人的再培训项目在规模与效果上存在显著局限(Jacobs,2025),因此该战略必须与第二支柱结合:有意识地强化社会安全网。除传统失业救济外,还应探索适应性机制,如失业保险、可携带福利制度和负所得税。这些政策共同可构建一个生态系统,使自主代理增强人类能力,同时提供管理劳动力转型、广泛分享生产率收益、维护社会凝聚力所必需的经济缓冲。
结论
鉴于其中部分提议代表重大变革,在有限范围内、通过渐进式推广进行全面测试至关重要,且仅在获得所有利益相关方支持与认可后方可推进。通过此类渐进式、小规模的实证验证,才有可能开发并迭代优化确保安全与合规的适当框架。
某些领域可能始终因多种原因(如人类偏好、文化、风险敏感性等)需要人类主动决策。然而,随着AI代理性能的快速提升,以及可扩展的AI安全监督框架与保障机制(如Leibo等,2024;Shah等,2025)的发展,自主代理的应用场景很可能不断增加。自主或半自主AI代理或许能更快、更高效地完成更多任务,为社会创造巨大价值(Yang和Zhai,2025)。但这不会没有重大挑战,不仅需要个体代理的对齐与协调,更重要的是跨多种尺度的代理网络的对齐与协调。
此外,就AI与人类交互而言,必须牢记:并非所有人类需求与体验都能如商品般轻易被市场捕捉(Satz,2010),因为商品仅在特定领域内可互换(Walzer,2008)。
利用市场驱动协调(Clearwater和Yeh,1996;Dias和Stentz,2002;Metcalf,2009;Stavins,2010)在先进AI代理对齐与协调的讨论中尚未受到足够关注。先进AI代理中涌现的行为与能力之复杂性,及其在多种任务与社会角色中交互的可能复杂性,构成了一种典型场景——在该场景中,市场力量可能成为推动AI代理协调与群体层面AI对齐的关键驱动力,而不仅限于单个代理层面。
本文主张,通过精心引入作为沙盒经济的新型可控代理市场,或可通过先进AI代理网络实现积极的社会与经济影响。
通过将我们的社会目标嵌入代理间交易的基础设施本身,我们可以培育一个生态系统,其中涌现的协作是一种特性,而非缺陷。因此,我们的选择在于:是将这些强大的新型行为体强行塞入它们终将撕裂的旧系统,还是抓住稍纵即逝的机遇,构建一个世界——在那里,我们最强大的工具,从其设计之初,就是我们最高理想的延伸。
原文链接:https://arxiv.org/pdf/2509.10147