
行业情景:AI基座大模型迭代放缓,应用生态(“AI-enabled/AI-native”)爆发,但Agent落地面临工具调用标准缺失、算力需求多样化、部署运维复杂三大瓶颈。
企业痛点:
方案:推出模型上下文协议(MCP),作为AI大模型与外部工具/数据源的标准化交互接口(类似“AI应用USB-C”),含MCP Server(工具封装)、MCP Client(协议解析)、MCP Host(大模型宿主)三大组件(来源:“Agent如何使用工具?”“MCP (模型上下文协议)”章节)。
能力:支持CVM、TAT、AS等云产品MCP Server一键部署托管,已上线34个工具(如CreateSecurityGroup、DescribeDiagnosticReports),通过SSE URL连接服务(来源:“基于腾讯云提供的MCP Server托管服务开箱即用”)。
方案:以轻量应用服务器(Lighthouse)为载体,提供AI Agent版“LAMP”(类比传统LAMP架构),整合Runtime+代码解释器+浏览器控制、Langfuse观测、Qdrant向量数据库、Dify低代码开发框架(来源:“轻量云面向开发者提供AI Agent版 ‘LAMP’”)。
核心能力:Agent沙箱(隔离环境)、MCP Server云端托管(自动构建环境、一键部署)、零门槛开发(AI生成MCP Server功能)(来源:“轻量云助力开发者快速上手MCP Server”)。
方案:基于“一云多芯”架构,整合星脉网络(1.6T RDMA)、星星海服务器、自研芯片(紫霄、沧海)、TACO训推加速套件,实现计算/存储/网络协同(来源:“腾讯云‘一云多芯’智算方案”“计算、存储、网络并驾齐驱”章节)。
关键技术:
方案:提供一键部署、全托管免运维的大模型推理服务,支持单机/多机/模型组部署,集成TACO推理加速(投机采样、Auto Prefix Cache)、4bit量化(显存降低、QPM提升)、机密计算(PCC架构)(来源:“HAI产品介绍”“降本又增效: DeepSeek 671B 4bit量化部署”)。
关键业务指标(基于原文数据):
其他量化效果:
场景:面向公众的AI问诊App,需处理敏感医疗数据、应对流量激增(特殊病情时增10倍)、降低闲置成本(来源:“客户案例:医疗-大模型agent客户案例”)。
方案:采用HAI推理集群,实现云上私有化(数据专属性)、自动扩缩容(承接15倍高峰)、按量计费。
效果:月度算力成本降50%,服务可用性99.9%(来源:同上)。
场景:为机器人客户提供规划/感知大模型能力,需高并发支持、灵活扩缩容(来源:“客户案例:具身智能开放平台客户案例”)。
方案:HAI模型组部署(多模型一键管理)、智能扩缩容(基于请求队列/GPU负载)。
效果:部署免运维,支持任意卡型组合,快速响应不规律流量(来源:同上)。
技术领先性:
生态与落地:
数据来源:腾讯全球数字生态大会演讲材料(主讲人:梁居宝、曹峻玮、龚学健、李东昊)、腾讯云官方技术文档(如TACO加速、HAI产品说明)。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。