2026年3月23日
作者:Hema Bontha, Manuel Huber, Matheen Raza
人工智能正从实验阶段走向生产阶段。然而,大多数企业所需的数据存在于公共云之外,这包括患者记录、市场研究等敏感信息,以及包含企业知识的遗留系统。使用私有数据与AI模型存在风险,且隐私和信任问题常常阻碍AI的采用。
构建下一代AI工厂——专注于大规模生产智能的高性能基础设施——的企业必须建立在零信任基础之上。这种安全架构通过使用硬件强制的可信执行环境(TEE)和加密证明,消除了对底层主机基础设施的隐式信任。本文描述了将零信任基础集成到AI工厂所需的全栈架构。
本地部署要求通常限制企业只能构建自己的模型或使用开源模型来处理代理式AI工作负载。为了实现AI的承诺,组织必须在其运营的基础设施上部署多样化的模型(包括专有模型),同时不向管理员、hypervisor或主机操作系统暴露敏感数据或模型权重。另一方面,模型提供商需要加密保证,确保其知识产权即使在自身受控环境之外部署时也无法被提取。
机密计算通过解决信任困境提供了这种保证——传统模式要求每个角色都给予隐式信任,而无需实际验证信任。
在共享基础设施上部署专有前沿模型会在AI工厂的关键利益相关者之间造成三方信任困境:
这种循环的信任缺失源于一个根本问题:在传统计算环境中,数据未加密,导致敏感数据和专有模型以明文形式暴露给内存和系统管理员。机密计算通过确保数据和模型在整个执行生命周期中都受到加密保护来解决此问题。
机密计算提供了硬件基础。机密容器(CoCo)将其操作化以适用于Kubernetes。
CoCo使Kubernetes Pod能够运行在硬件支持的可信执行环境(TEE)中,而无需重写应用程序。Pod不再共享主机内核,而是透明地封装在轻量级、硬件隔离的虚拟机(VM)中——使用Kata Containers——在保留云原生工作流的同时强制执行强隔离边界。
对于模型提供商而言,最大的风险是基础设施所有者窃取专有模型权重。CoCo通过将主机操作系统和hypervisor从信任等式中移除来解决此问题。当模型部署时,它保持加密状态,直到硬件通过称为远程证明的过程在数学上证明安全区是安全的。只有这样,密钥代理服务(KBS)才会将解密密钥释放到受保护内存中,确保模型永远不会以明文形式暴露给主机。
某机构为CoCo软件堆栈提供了参考架构。这是一个标准化蓝图——与Kata Containers等开源项目组件及机密容器社区合作开发——用于在裸金属基础设施上构建零信任AI工厂。它定义了如何结合硬件和软件,以安全部署前沿模型,同时不向主机环境暴露其数据或权重。
该架构的核心支柱包括:
CoCo在严格的威胁模型下运行。基础设施层——包括主机操作系统、hypervisor和云提供商——被视为不可信。
CoCo不再依赖基础设施管理员来强制执行安全控制,而是将信任边界转移到硬件支持的TEE。AI工作负载在加密的虚拟化环境中运行,主机无法检查内存内容,并且只有在执行环境证明其完整性后才释放秘密。理解哪些受到保护、哪些不受保护至关重要。
CoCo为执行期间的机密性和完整性提供了强有力的保证,包括:
某些风险仍处于架构范围之外,例如:
此端到端工作流基于远程证明程序(RATS)架构,支持在TEE内安全释放密钥以部署加密模型:
某机构的生态合作伙伴正在使零信任AI工厂成为现实,包括某机构、某机构、某机构等,共同推进生产就绪的机密计算,并使企业能够释放AI的价值。
通过参阅某机构机密计算参考架构了解更多信息。FINISHED
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。