首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 腾讯模型工具箱驱动保险行业研发效率与智能化升级

    腾讯提供AI原生解决方案提升核心业务环节效率 腾讯智能问数基于自研CDataAgent-SQL模型,支持自然语言转SQL查询,具备多轮对话与智能追问能力,在BIRD-SQL国际基准测试中执行准确率达 腾讯代码助手Code Buddy提供AI辅助编码、单元测试与安全漏洞修复功能,支持混元与DeepSeek V3/R1双模型引擎。 东吴人寿构建全场景知识问答体系 东吴人寿采用腾讯混合部署模式,在公有处理公开业务(如苏惠保智能投保),在私有环境部署合规审核等敏感应用。 腾讯技术架构保障模型性能与部署灵活性 腾讯提供RDMA网络互联GPU服务器支持双机部署满血版DeepSeek模型,最大程度提升性能与可用性。 天御内容安全系统对模型输出进行合规检测,有效识别违法、涉黄等违规内容。 数据来源:腾讯全球数字生态大会2025腾讯副总经理李凯演讲材料

    9110编辑于 2026-04-21
  • 来自专栏机器之心

    模型进入「落地战」,腾讯下手「行业」模型

    如今,一直在模型方面保持「沉默」的腾讯出手了。 6 月 19 日,在主题明确的「行业大模型及智能应用技术峰会」上,腾讯首次公布腾讯行业大模型进展,也让我们看到了腾讯模型在产业落地的思考。 腾讯集团高级执行副总裁、与智慧产业事业群 CEO 汤道生 模型落地 看成本与效率 即使对于科技公司而言,模型是一项全新的技术,训练、部署和应用都不是那么容易的事情。 行业大模型包含腾讯推出的金融、政务、文旅、传媒、教育模型。 技术底座所提供的模型高性能计算集群、计算网络以及行业大模型,是腾讯为企业提供 MaaS 服务的基础。 基于媒资管理的现状,央视希望利用模型提升智能化程度。 在了解央视的媒资管理升级需求之后,腾讯给出的解决方案是基于腾讯智能媒体 AI 中台,部署 TI 平台原生行业大模型服务。 从今天的这波发布中,我们就能够看到腾讯模型技术发展前景的这种考量:聚焦推动模型技术真正落地行业。

    1.2K40编辑于 2023-08-07
  • 腾讯全面下调模型价格

    今天,腾讯公布全新模型价格方案:以上价格调整立即生效。腾讯混元模型腾讯全链路自研的万亿参数模型,在国内率先采用混合专家模型 (MoE) 结构,模型总体性能相比上一代提升50%。 根据沙利文评测结果,腾讯混元处于国内模型第一梯队,高于国际模型均线。目前有混元-pro、混元-standard、混元-lite三个不同版本和尺寸的模型以API的形式面向企业和个人开发者开放。 目前模型行业还处于能力爬坡的过程中,腾讯非常重视技术积累与客户体验,未来会持续为客户提供有竞争力的产品和服务。

    1.8K00编辑于 2024-05-27
  • 来自专栏AI及人工智能

    腾讯DeepSeek模型应用搭建指南

    2月8日,腾讯宣布上线DeepSeek-R1及V3原版模型API接口,通过强大的公有服务,腾讯可以为用户提供稳定优质的服务。 同时,腾讯旗下模型知识应用开发平台知识引擎也接入了DeepSeek-R1及V3这两款模型,并率先支持联网搜索,结合知识库、RAG等能力,随着人工智能技术的不断发展,腾讯的DeepSeek模型为开发者提供了强大的自然语言处理能力 注册腾讯账户如果还没有腾讯账户,你需要首先注册一个腾讯账户,并完成实名认证。可以前往腾讯官网注册。2. secret等参数appid是模型中,点击调用,获取到的接下来修改web配置项路径:src/constants/static.js标识ws模式还是sse模式链接对话,可选值ws和sseconst ACCESS_TYPE = 'sse';体验机器人的appkey,同上服务配置项中appIdconst APP_KEY = '在模型-应用管理-调用 中获取appkey;配置完毕后,执行脚本# 启动服务端 http://localhost

    2.2K50编辑于 2025-02-17
  • 来自专栏腾讯专有云

    腾讯DeepSeek私有部署工具箱上线啦!

    关于 腾讯专有 腾讯专有TCE是基于腾讯公有成熟体系自研的私有化版本,帮助客户建设面向模型时代的自主可控、弹性伸缩的全栈数字化底座,为企业数字化运营提供一站式解决方案。

    2.1K10编辑于 2025-03-27
  • 腾讯模型安全解决方案概要

    一、 产品定位与核心亮点 腾讯模型安全解决方案 是一套专为AI时代设计的全生命周期端到端安全保障体系。 ,解决模型落地过程中的“裸奔”风险。 功能框架 腾讯构建了全链路、多维度的防护体系,覆盖模型选型、模型训练、推理部署、业务应用四阶段: AI基础设施安全(AI-SPM): 负责底层环境的资产测绘与漏洞管理,管理AI攻击面。 攻击防御范围: 针对模型组件漏洞的 6类 攻击行为示警。 支持模型生态: 已明确支持 Deepseek、混元模型、Qwen2.5、阶跃星辰 等主流模型服务源站。 3. 文档仅列出了支持的合作伙伴/模型源站,如下所示) 生态合作伙伴/支持模型: Deepseek 腾讯混元模型 Qwen2.5 (通义千问) 阶跃星辰 以上模型均已接入腾讯LLM-WAF模型应用防火墙

    69010编辑于 2026-01-30
  • 来自专栏腾讯云TI平台

    腾讯NLP模型预训练最佳实践

    通过公司内外团队及客户交流发现,越来越多的技术团队、深度学习工程师、高校科研工作者对NLP模型预训练有需求,腾讯作为国内主要厂商之一,需要在NLP领域迅速补齐短板,为公司内外部客户赋能、提速。 据此腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案。 3、TI-Deepspeed多机可扩展性优化 TI-Deepspeed结合腾讯iaas基础设施对开源deepspeed框架多机可扩展性做了深度优化,也从实践和调研中积累了如何在腾讯机器上更好的发挥框架性能优势的经验 、 三、TI-Deepspeed模型训练最佳实践 腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案 5、千亿参数规模 腾讯TI平台团队使用zero-stage3结合cpu offload,在有限的64卡情况下训练千亿模型,通过增大batchsize,隐藏通信开销,提升训练效率。

    3.2K70编辑于 2021-12-22
  • 来自专栏杨不易呀

    💪 腾讯新晋产品「腾讯混元模型」内测体验!

    前言 今天腾讯共创群发布了腾讯混元AI模型,很荣幸我申请到了内测资格,我是在2023年十月一十五就拿到了接下来我将介绍混元AI部分强大的功能和我常用的功能! 腾讯混元模型问世直接干掉ChatGPT~ 我已经呆掉了一时半会不知道该用哪个AI功能了哈哈!! 玩转 对于我程序员来说我需要的肯定是和ChatGpt一样的效果和作为腾讯创作者需要做图(Banner) 我进行搞到了ChatGpt的4.0版本来进行对比一下 一、代码能力检测 我的需求是帮我根据我的SQL 希望继续完善不忘初心成为全球的Chat HunYuan AI 到此腾讯混元模型AI的实践到此结束啦~ 最后 本期结束咱们下次再见~ 关注我不迷路,如果本篇文章对你有所帮助,或者你有什么疑问,欢迎在评论区留言

    3.5K4311编辑于 2023-11-16
  • 来自专栏ToB行业头条

    企业拥抱模型腾讯为什么值得期待?

    而作为被期待的厂商之一,腾讯率先给出解法。在腾讯数字生态大会互联网AIGC应用专场,腾讯邀请国内多家一线模型厂商、产品应用实践负责人共同探讨当下模型建设及AI应用场景的落地空间与实践。 那么,作为组局者,腾讯有哪些值得期待?它能否在模型与行业应用之间探索过程的不确定性中间给予支撑,让企业真正将模型用起来呢?01什么才是阻碍模型与产业结合的高墙? 这样的例子也仅仅是模型企业与腾讯合作的缩影,除了推理加速、算力支持以外,腾讯打造了从基础设施层+加速层+TI-ONE机器学习平台层等相结合的AIGC全栈解决方案。 _写在最后从根据模型产业链条上不同层面给出的有针对性的解决方案来看,腾讯要做的,是希望在模型的每一层,比如算力层、数据层、模型层、应用层等,都能提供对应的产品。 可以预见,随着模型在产业内扎根越深,腾讯更多关于实用主义的探索也势必会在其中发挥不可忽视的作用,届时或许人人都可以简单便捷地部署和使用模型与应用,那么属于模型的时代才会真正到来。

    76720编辑于 2023-09-25
  • 来自专栏云服务业务

    腾讯代理商:腾讯部署OpenClaw 如何接入自定义模型

    本文由枢国际yunshuguoji撰写。一、为什么需要自定义模型?随着 AI 应用场景多元化,单一模型已无法满足企业需求。 OpenClaw 作为轻量应用服务器的智能中枢,现已支持硅基流动、MiniMax、Kimi Code 等 10 + 主流模型,但许多用户仍面临痛点:· 专属模型无法接入 ❌· 跨境部署响应延迟 ⏳· API OpenClaw 开放自定义接口,3 步即可完成专属模型对接二、3 分钟极简接入教程(以硅基流动 DeepSeek-V3.2 为例) 获取 API 密钥登录硅基流动控制台 → [API 管理] → 复制 api_key⚠️ 关键提示:确保服务器地域与模型支持区域一致(如硅基流动需华东 / 华南节点)填写配置模板在 OpenClaw 控制台 → [应用管理] → 粘贴以下参数:{ "provider": deepseek-ai/DeepSeek-V3.2", "name": "DeepSeek-V3.2" }}一键部署验证点击保存 → 触发自动部署 → 在 [调试面板] 输入测试指令✅ 成功标志:返回代码200 + 模型响应内容其他模型配置模板

    1.5K30编辑于 2026-03-23
  • 来自专栏腾讯云TI平台

    技术干货 | 腾讯NLP模型预训练最佳实践

    通过公司内外团队及客户交流发现,越来越多的技术团队、深度学习工程师、高校科研工作者对NLP模型预训练有需求,腾讯作为国内主要厂商之一,需要在NLP领域迅速补齐短板,为公司内外部客户赋能、提速。 据此腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案。 3D并行技术 TI-Deepspeed模型训练最佳实践 腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案 5、千亿参数规模 腾讯TI平台团队使用zero-stage3结合cpu offload,在有限的64卡情况下训练千亿模型,通过增大batchsize,隐藏通信开销,提升训练效率。 ---- 关注腾讯AI平台 了解更多的AI资讯

    2.1K20编辑于 2022-01-27
  • 来自专栏AI 大数据

    部署模型不再难:DeepSeek + 腾讯 HAI 实战教程

    摘要如果你正准备在上部署像 DeepSeek 这样的开源模型,但又不想从零折腾容器、模型加速和 API 服务,腾讯 HAI 平台就能帮你把这些流程一步步跑通。 引言部署模型听起来高大上,其实最常见的痛点无非这几件事:模型体积太大,推理服务卡顿配环境、写 Dockerfile、跑服务太折腾不会写 API 或者不会把模型服务部署在线上想部署在云端,但不知道该选哪种资源和平台好消息是 ,腾讯的 HAI 平台把这些细节都提前帮你想好了。 简单来说,HAI(High-performance AI Infra)平台是腾讯为 AI 模型部署专门做的平台。 参考资料DeepSeek GitHub 仓库腾讯 HAI 官方文档

    84210编辑于 2025-04-09
  • 来自专栏腾讯云存储

    腾讯数据湖赋能AIGC多模态模型

    近日,腾讯存储解决方案总监温涛受邀在2024数据基础设施技术峰会-“智算中心技术创新论坛”分享了腾讯的数据智能生态创新之路,剖析腾讯数据湖在赋能AIGC多模态模型方面的应用实践。 腾讯COS Data Lake向智能数据湖演进,打造一体化AIGC多模态存储解决方案 腾讯通过在数据湖原来的基础上增加了数据的加速能力,增加了AI能力之后,就可以把数据湖系统的业务范围扩展到AIGC GooseFS数据加速服务,提升数据预处理、模型训练、推理应用效率 腾讯如何将数据快速导入,从全球范围内快速收集数据。 ,这个大模型是我们自己训练的,基于公司内部的通用模型,我们做了一个进一步的调优和训练,专门用于图文内容搜索模型模型。 通过我们自己的图文模型之后,就把导入的这些文档进行向量化,保存到腾讯的向量数据库里面去,用户展示搜索的时候,我们把搜索请求通过图文模型做向量化,从向量维度,在向量数据库里面进行搜索,找到匹配度比较高的

    1.6K00编辑于 2024-05-24
  • 来自专栏腾讯云TI平台

    技术干货 | 腾讯NLP模型预训练最佳实践

    通过公司内外团队及客户交流发现,越来越多的技术团队、深度学习工程师、高校科研工作者对NLP模型预训练有需求,腾讯作为国内主要厂商之一,需要在NLP领域迅速补齐短板,为公司内外部客户赋能、提速。 据此腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案。 image.png TI-Deepspeed模型训练最佳实践 腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案 4、四百亿参数规模 腾讯TI平台团队通过3D并行结合梯度累积,对3D并行进行改造以支持切分optimizer states,使用64卡训练400亿参数规模模型,可以达到40TFlops/GPU。 5、千亿参数规模 腾讯TI平台团队使用zero-stage3结合cpu offload,在有限的64卡情况下训练千亿模型,通过增大batchsize,隐藏通信开销,提升训练效率。

    2.1K30发布于 2021-10-08
  • 来自专栏腾讯教育黑板报

    怎么过好“上年”?看腾讯给的“工具箱

    使用腾讯会议,在线视频“拜年”、微信发红包等拜年新方式,成为今年春节人们过年的第一选择。 为了帮助大家过好年,腾讯携手澎湃新闻,给网友提供了一份“过年”攻略,通过各类小程序、APP,大家不仅可以通过视频的形式云团聚、拜年,还可以购物、学习、云游览博物馆和景区。 数据增长的背后,是数字技术给人们带来的实实在在便利,在日常生活上,人们用电商小程序“逛街”;在工作上,用腾讯会议“办公”;在学习上,用在线课堂“上课”。 直播中,我们将见证40年未见面的老兵通过腾讯会议上聚会,上海一家四世上同堂吃年夜饭……数字技术的力量,让亲朋好友即使不在一起,也可以上相聚、好好过年。 ? (扫码预约直播) 带来“工具箱”  助力大家“过好年” 春节期间,腾讯与合作伙伴也为更多人准备了上工具,帮助大家共同战疫、过个好年。

    2.6K20发布于 2021-02-07
  • 解锁原生后端开发新姿势:腾讯模型API实战攻略

    从智能客服到内容创作,从数据分析到智能决策,模型的应用场景愈发广泛,展现出巨大的潜力。 而腾讯智能体开发平台,无疑是这一领域的佼佼者。 此外,我们还需要注册腾讯账号并获取 API 密钥。腾讯账号是我们使用腾讯服务的通行证,而 API 密钥则是我们调用腾讯模型 API 的身份凭证。 接入腾讯 DeepSeek API编写 API 调用函数 现在,我们开始编写调用腾讯 DeepSeek API 的函数,这就像是搭建一座通往智能世界的桥梁,让我们的应用能够与强大的模型进行交互。 通过实际的代码实战,我们成功地基于腾讯模型 API 构建了原生后端服务,实现了智能问答、文档解析与信息抽取等核心功能,并将其与其他原生组件进行了集成。 在这个过程中,我们不仅掌握了如何调用腾讯模型 API,还学会了如何优化 API 调用参数,以获得更好的性能和结果。

    1.2K10编辑于 2025-03-23
  • 腾讯模型工具箱驱动保险数智化转型:从智能问数到智能体应用的全链路实践

    部署腾讯模型工具箱与场景方案 腾讯基于李凯(腾讯副总经理、腾讯保险架构中心) 提出的“智一体”路径,提供全链路解决方案: 智能问数:自然语言交互(多轮对话、智能追问、输入联想),结合知识库与模型生成 模型工具箱:智能体开发平台(搭建Agent/RAG/工作流)、TI-One训推平台(支持满血版DeepSeek-R1精调蒸馏、一键部署)、乐享知识库(DeepSeek+混元双核驱动)、天御内容安全、本地专用集群 泰康、微保等:接入腾讯模型服务体系,探索智能展业、智能客服场景(来源:“模型服务”列表)。 选择腾讯的技术与实践优势 技术领先性:混元模型+DeepSeek系列模型双核驱动(TI-One支持DeepSeek-R1精调蒸馏、一键部署);专有高性能计算集群(RDMA网络互联GPU服务器、双机部署满血版 DeepSeek);自研能力(熔断限流、多级数据均衡、多级并行查询框架、向量存储裁剪);模型工具箱覆盖模型训练、内容检索、分布式全链路。

    11610编辑于 2026-04-22
  • 来自专栏深度学习与python

    模型之战,腾讯来了

    目前,腾讯腾讯广告、腾讯游戏、腾讯金融科技、腾讯会议、腾讯文档、微信搜一搜、QQ 浏览器等超过 50 个腾讯业务和产品,已经接入腾讯混元模型测试。 同时,腾讯混元模型将作为腾讯 MaaS 服务的底座,客户不仅可以直接通过 API 调用,也可以将混元模型作为基底模型,为不同产业场景构建专属应用。 在这一波模型浪潮中,服务被认为是最理想的模型承载平台,而模型也将引领下一代服务的演进。通过厂商所提供的基础设施、模型服务、训练加速框架等支持,模型的能力将很快渗透到各行各业中。 基于以上种种挑战,腾讯认为,在新的模型时代,需要更高效的技术。 腾讯是如何解决当前挑战的 传统计算已经无法满足 AI 企业及模型诉求,智算已成为了关键支撑,腾讯面向 AI 场景专用,打造了腾讯 AI 超级底座。

    71640编辑于 2023-09-18
  • 来自专栏腾讯专有云

    腾讯专有智算套件,助力普惠模型落地

    其中,腾讯专有TCE首席架构师方天戟受邀参会,并进行了名为《模型时代的国产计算平台》的主题分享。 腾讯专有TCE首席架构师方天戟 在此次大会中,腾讯专有TCE凭借卓越的技术实力和大量成功案例荣获“央国企最佳解决方案”奖项。 个数量级,使得模型技术真正成为普惠性技术,标志着模型时代的到来。 在这一技术演进过程中,腾讯专有TCE针对模型对算力、存储、网络的严苛要求,推出专有智算套件,通过高性能计算集群HCC、智能高性能网络IHN、高性能文件存储TurboFS三核心组件,为企业提供了从模型训练到推理部署的全链路优化 尚航科技SunClouds采用TCE作为算力平台的核心基座,承载多种异构计算、通用计算、分布式存储、原生及安全服务,接入DeepSeek模型,为尚航终端用户提供一站式自助用、弹性用云和敏捷部署大规模并行计算及联机模型训练

    67600编辑于 2025-06-09
  • 2025原生模型部署实战:基于腾讯构建高可用推理服务

    本文基于服务某金融科技企业的真实项目经验,详解如何利用腾讯容器服务(EKS)、GPU服务器(CGP)等产品,构建一套支持1000+并发、可用性达99.9%的模型推理服务,同时将推理成本降低40%。 二、技术选型:腾讯产品矩阵的协同优势模型部署的核心是平衡性能、成本与稳定性,我们基于腾讯产品特性设计了三层架构,各组件协同形成技术闭环:1. 未来优化方向结合2025年技术趋势,后续将引入两优化方案:AI驱动弹性:利用腾讯TI-ONE平台训练负载预测模型,实现基于业务预测的提前扩容,进一步降低峰值延迟边缘推理部署:在用户集中区域的腾讯边缘节点部署轻量模型 ,将本地咨询请求的延迟降至50ms以内六、结语:原生赋能模型落地本次金融级模型部署的成功,核心在于腾讯产品矩阵的协同优势——EKS提供灵活的编排能力,CGP保障高性能算力,COS实现低成本存储, 腾讯开发者社区提供了丰富的产品文档与技术案例,希望本文的实战经验能为更多开发者提供参考,让模型真正成为驱动业务增长的核心引擎。

    94210编辑于 2025-12-10
领券