首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器之心

    模型进入「落地战」,腾讯下手「行业」模型

    如今,一直在模型方面保持「沉默」的腾讯出手了。 6 月 19 日,在主题明确的「行业大模型及智能应用技术峰会」上,腾讯首次公布腾讯行业大模型进展,也让我们看到了腾讯模型在产业落地的思考。 腾讯集团高级执行副总裁、与智慧产业事业群 CEO 汤道生 模型落地 看成本与效率 即使对于科技公司而言,模型是一项全新的技术,训练、部署和应用都不是那么容易的事情。 行业大模型包含腾讯推出的金融、政务、文旅、传媒、教育模型。 技术底座所提供的模型高性能计算集群、计算网络以及行业大模型,是腾讯为企业提供 MaaS 服务的基础。 基于媒资管理的现状,央视希望利用模型提升智能化程度。 在了解央视的媒资管理升级需求之后,腾讯给出的解决方案是基于腾讯智能媒体 AI 中台,部署 TI 平台原生行业大模型服务。 从今天的这波发布中,我们就能够看到腾讯模型技术发展前景的这种考量:聚焦推动模型技术真正落地行业。

    1.1K40编辑于 2023-08-07
  • 腾讯全面下调模型价格

    今天,腾讯公布全新模型价格方案:以上价格调整立即生效。腾讯混元模型腾讯全链路自研的万亿参数模型,在国内率先采用混合专家模型 (MoE) 结构,模型总体性能相比上一代提升50%。 根据沙利文评测结果,腾讯混元处于国内模型第一梯队,高于国际模型均线。目前有混元-pro、混元-standard、混元-lite三个不同版本和尺寸的模型以API的形式面向企业和个人开发者开放。 目前模型行业还处于能力爬坡的过程中,腾讯非常重视技术积累与客户体验,未来会持续为客户提供有竞争力的产品和服务。

    1.8K00编辑于 2024-05-27
  • 来自专栏AI及人工智能

    腾讯DeepSeek模型应用搭建指南

    2月8日,腾讯宣布上线DeepSeek-R1及V3原版模型API接口,通过强大的公有服务,腾讯可以为用户提供稳定优质的服务。 同时,腾讯旗下模型知识应用开发平台知识引擎也接入了DeepSeek-R1及V3这两款模型,并率先支持联网搜索,结合知识库、RAG等能力,随着人工智能技术的不断发展,腾讯的DeepSeek模型为开发者提供了强大的自然语言处理能力 注册腾讯账户如果还没有腾讯账户,你需要首先注册一个腾讯账户,并完成实名认证。可以前往腾讯官网注册。2. secret等参数appid是模型中,点击调用,获取到的接下来修改web配置项路径:src/constants/static.js标识ws模式还是sse模式链接对话,可选值ws和sseconst ACCESS_TYPE = 'sse';体验机器人的appkey,同上服务配置项中appIdconst APP_KEY = '在模型-应用管理-调用 中获取appkey;配置完毕后,执行脚本# 启动服务端 http://localhost

    2.2K50编辑于 2025-02-17
  • 腾讯模型安全解决方案概要

    一、 产品定位与核心亮点 腾讯模型安全解决方案 是一套专为AI时代设计的全生命周期端到端安全保障体系。 ,解决模型落地过程中的“裸奔”风险。 功能框架 腾讯构建了全链路、多维度的防护体系,覆盖模型选型、模型训练、推理部署、业务应用四阶段: AI基础设施安全(AI-SPM): 负责底层环境的资产测绘与漏洞管理,管理AI攻击面。 攻击防御范围: 针对模型组件漏洞的 6类 攻击行为示警。 支持模型生态: 已明确支持 Deepseek、混元模型、Qwen2.5、阶跃星辰 等主流模型服务源站。 3. 文档仅列出了支持的合作伙伴/模型源站,如下所示) 生态合作伙伴/支持模型: Deepseek 腾讯混元模型 Qwen2.5 (通义千问) 阶跃星辰 以上模型均已接入腾讯LLM-WAF模型应用防火墙

    64710编辑于 2026-01-30
  • 来自专栏腾讯云TI平台

    腾讯NLP模型预训练最佳实践

    通过公司内外团队及客户交流发现,越来越多的技术团队、深度学习工程师、高校科研工作者对NLP模型预训练有需求,腾讯作为国内主要厂商之一,需要在NLP领域迅速补齐短板,为公司内外部客户赋能、提速。 据此腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案。 3、TI-Deepspeed多机可扩展性优化 TI-Deepspeed结合腾讯iaas基础设施对开源deepspeed框架多机可扩展性做了深度优化,也从实践和调研中积累了如何在腾讯机器上更好的发挥框架性能优势的经验 、 三、TI-Deepspeed模型训练最佳实践 腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案 5、千亿参数规模 腾讯TI平台团队使用zero-stage3结合cpu offload,在有限的64卡情况下训练千亿模型,通过增大batchsize,隐藏通信开销,提升训练效率。

    3.1K70编辑于 2021-12-22
  • 来自专栏杨不易呀

    💪 腾讯新晋产品「腾讯混元模型」内测体验!

    前言 今天腾讯共创群发布了腾讯混元AI模型,很荣幸我申请到了内测资格,我是在2023年十月一十五就拿到了接下来我将介绍混元AI部分强大的功能和我常用的功能! 腾讯混元模型问世直接干掉ChatGPT~ 我已经呆掉了一时半会不知道该用哪个AI功能了哈哈!! 玩转 对于我程序员来说我需要的肯定是和ChatGpt一样的效果和作为腾讯创作者需要做图(Banner) 我进行搞到了ChatGpt的4.0版本来进行对比一下 一、代码能力检测 我的需求是帮我根据我的SQL 希望继续完善不忘初心成为全球的Chat HunYuan AI 到此腾讯混元模型AI的实践到此结束啦~ 最后 本期结束咱们下次再见~ 关注我不迷路,如果本篇文章对你有所帮助,或者你有什么疑问,欢迎在评论区留言

    3.5K4311编辑于 2023-11-16
  • 来自专栏ToB行业头条

    企业拥抱模型腾讯为什么值得期待?

    而作为被期待的厂商之一,腾讯率先给出解法。在腾讯数字生态大会互联网AIGC应用专场,腾讯邀请国内多家一线模型厂商、产品应用实践负责人共同探讨当下模型建设及AI应用场景的落地空间与实践。 那么,作为组局者,腾讯有哪些值得期待?它能否在模型与行业应用之间探索过程的不确定性中间给予支撑,让企业真正将模型用起来呢?01什么才是阻碍模型与产业结合的高墙? 这样的例子也仅仅是模型企业与腾讯合作的缩影,除了推理加速、算力支持以外,腾讯打造了从基础设施层+加速层+TI-ONE机器学习平台层等相结合的AIGC全栈解决方案。 _写在最后从根据模型产业链条上不同层面给出的有针对性的解决方案来看,腾讯要做的,是希望在模型的每一层,比如算力层、数据层、模型层、应用层等,都能提供对应的产品。 可以预见,随着模型在产业内扎根越深,腾讯更多关于实用主义的探索也势必会在其中发挥不可忽视的作用,届时或许人人都可以简单便捷地部署和使用模型与应用,那么属于模型的时代才会真正到来。

    74820编辑于 2023-09-25
  • 来自专栏云服务业务

    腾讯代理商:腾讯部署OpenClaw 如何接入自定义模型

    本文由枢国际yunshuguoji撰写。一、为什么需要自定义模型?随着 AI 应用场景多元化,单一模型已无法满足企业需求。 OpenClaw 作为轻量应用服务器的智能中枢,现已支持硅基流动、MiniMax、Kimi Code 等 10 + 主流模型,但许多用户仍面临痛点:· 专属模型无法接入 ❌· 跨境部署响应延迟 ⏳· API OpenClaw 开放自定义接口,3 步即可完成专属模型对接二、3 分钟极简接入教程(以硅基流动 DeepSeek-V3.2 为例) 获取 API 密钥登录硅基流动控制台 → [API 管理] → 复制 api_key⚠️ 关键提示:确保服务器地域与模型支持区域一致(如硅基流动需华东 / 华南节点)填写配置模板在 OpenClaw 控制台 → [应用管理] → 粘贴以下参数:{ "provider": deepseek-ai/DeepSeek-V3.2", "name": "DeepSeek-V3.2" }}一键部署验证点击保存 → 触发自动部署 → 在 [调试面板] 输入测试指令✅ 成功标志:返回代码200 + 模型响应内容其他模型配置模板

    1.4K30编辑于 2026-03-23
  • 来自专栏腾讯云TI平台

    技术干货 | 腾讯NLP模型预训练最佳实践

    通过公司内外团队及客户交流发现,越来越多的技术团队、深度学习工程师、高校科研工作者对NLP模型预训练有需求,腾讯作为国内主要厂商之一,需要在NLP领域迅速补齐短板,为公司内外部客户赋能、提速。 据此腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案。 3D并行技术 TI-Deepspeed模型训练最佳实践 腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案 5、千亿参数规模 腾讯TI平台团队使用zero-stage3结合cpu offload,在有限的64卡情况下训练千亿模型,通过增大batchsize,隐藏通信开销,提升训练效率。 ---- 关注腾讯AI平台 了解更多的AI资讯

    2.1K20编辑于 2022-01-27
  • 来自专栏AI 大数据

    部署模型不再难:DeepSeek + 腾讯 HAI 实战教程

    摘要如果你正准备在上部署像 DeepSeek 这样的开源模型,但又不想从零折腾容器、模型加速和 API 服务,腾讯 HAI 平台就能帮你把这些流程一步步跑通。 引言部署模型听起来高大上,其实最常见的痛点无非这几件事:模型体积太大,推理服务卡顿配环境、写 Dockerfile、跑服务太折腾不会写 API 或者不会把模型服务部署在线上想部署在云端,但不知道该选哪种资源和平台好消息是 ,腾讯的 HAI 平台把这些细节都提前帮你想好了。 简单来说,HAI(High-performance AI Infra)平台是腾讯为 AI 模型部署专门做的平台。 参考资料DeepSeek GitHub 仓库腾讯 HAI 官方文档

    80410编辑于 2025-04-09
  • 来自专栏腾讯云存储

    腾讯数据湖赋能AIGC多模态模型

    近日,腾讯存储解决方案总监温涛受邀在2024数据基础设施技术峰会-“智算中心技术创新论坛”分享了腾讯的数据智能生态创新之路,剖析腾讯数据湖在赋能AIGC多模态模型方面的应用实践。 腾讯COS Data Lake向智能数据湖演进,打造一体化AIGC多模态存储解决方案 腾讯通过在数据湖原来的基础上增加了数据的加速能力,增加了AI能力之后,就可以把数据湖系统的业务范围扩展到AIGC GooseFS数据加速服务,提升数据预处理、模型训练、推理应用效率 腾讯如何将数据快速导入,从全球范围内快速收集数据。 ,这个大模型是我们自己训练的,基于公司内部的通用模型,我们做了一个进一步的调优和训练,专门用于图文内容搜索模型模型。 通过我们自己的图文模型之后,就把导入的这些文档进行向量化,保存到腾讯的向量数据库里面去,用户展示搜索的时候,我们把搜索请求通过图文模型做向量化,从向量维度,在向量数据库里面进行搜索,找到匹配度比较高的

    1.6K00编辑于 2024-05-24
  • 来自专栏腾讯云TI平台

    技术干货 | 腾讯NLP模型预训练最佳实践

    通过公司内外团队及客户交流发现,越来越多的技术团队、深度学习工程师、高校科研工作者对NLP模型预训练有需求,腾讯作为国内主要厂商之一,需要在NLP领域迅速补齐短板,为公司内外部客户赋能、提速。 据此腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案。 image.png TI-Deepspeed模型训练最佳实践 腾讯TI平台团队在对Deepspeed调研和实践的基础上,从性能和易用性两方面对Deepspeed框架进行了相关优化,并根据NLP模型不同的参数规模沉淀出了完整且高性能的分布式训练方案 4、四百亿参数规模 腾讯TI平台团队通过3D并行结合梯度累积,对3D并行进行改造以支持切分optimizer states,使用64卡训练400亿参数规模模型,可以达到40TFlops/GPU。 5、千亿参数规模 腾讯TI平台团队使用zero-stage3结合cpu offload,在有限的64卡情况下训练千亿模型,通过增大batchsize,隐藏通信开销,提升训练效率。

    2K30发布于 2021-10-08
  • 解锁原生后端开发新姿势:腾讯模型API实战攻略

    从智能客服到内容创作,从数据分析到智能决策,模型的应用场景愈发广泛,展现出巨大的潜力。 而腾讯智能体开发平台,无疑是这一领域的佼佼者。 此外,我们还需要注册腾讯账号并获取 API 密钥。腾讯账号是我们使用腾讯服务的通行证,而 API 密钥则是我们调用腾讯模型 API 的身份凭证。 接入腾讯 DeepSeek API编写 API 调用函数 现在,我们开始编写调用腾讯 DeepSeek API 的函数,这就像是搭建一座通往智能世界的桥梁,让我们的应用能够与强大的模型进行交互。 通过实际的代码实战,我们成功地基于腾讯模型 API 构建了原生后端服务,实现了智能问答、文档解析与信息抽取等核心功能,并将其与其他原生组件进行了集成。 在这个过程中,我们不仅掌握了如何调用腾讯模型 API,还学会了如何优化 API 调用参数,以获得更好的性能和结果。

    1.2K10编辑于 2025-03-23
  • 来自专栏深度学习与python

    模型之战,腾讯来了

    目前,腾讯腾讯广告、腾讯游戏、腾讯金融科技、腾讯会议、腾讯文档、微信搜一搜、QQ 浏览器等超过 50 个腾讯业务和产品,已经接入腾讯混元模型测试。 同时,腾讯混元模型将作为腾讯 MaaS 服务的底座,客户不仅可以直接通过 API 调用,也可以将混元模型作为基底模型,为不同产业场景构建专属应用。 在这一波模型浪潮中,服务被认为是最理想的模型承载平台,而模型也将引领下一代服务的演进。通过厂商所提供的基础设施、模型服务、训练加速框架等支持,模型的能力将很快渗透到各行各业中。 基于以上种种挑战,腾讯认为,在新的模型时代,需要更高效的技术。 腾讯是如何解决当前挑战的 传统计算已经无法满足 AI 企业及模型诉求,智算已成为了关键支撑,腾讯面向 AI 场景专用,打造了腾讯 AI 超级底座。

    69040编辑于 2023-09-18
  • 来自专栏腾讯专有云

    腾讯专有智算套件,助力普惠模型落地

    其中,腾讯专有TCE首席架构师方天戟受邀参会,并进行了名为《模型时代的国产计算平台》的主题分享。 腾讯专有TCE首席架构师方天戟 在此次大会中,腾讯专有TCE凭借卓越的技术实力和大量成功案例荣获“央国企最佳解决方案”奖项。 个数量级,使得模型技术真正成为普惠性技术,标志着模型时代的到来。 在这一技术演进过程中,腾讯专有TCE针对模型对算力、存储、网络的严苛要求,推出专有智算套件,通过高性能计算集群HCC、智能高性能网络IHN、高性能文件存储TurboFS三核心组件,为企业提供了从模型训练到推理部署的全链路优化 尚航科技SunClouds采用TCE作为算力平台的核心基座,承载多种异构计算、通用计算、分布式存储、原生及安全服务,接入DeepSeek模型,为尚航终端用户提供一站式自助用、弹性用云和敏捷部署大规模并行计算及联机模型训练

    62700编辑于 2025-06-09
  • 2025原生模型部署实战:基于腾讯构建高可用推理服务

    本文基于服务某金融科技企业的真实项目经验,详解如何利用腾讯容器服务(EKS)、GPU服务器(CGP)等产品,构建一套支持1000+并发、可用性达99.9%的模型推理服务,同时将推理成本降低40%。 二、技术选型:腾讯产品矩阵的协同优势模型部署的核心是平衡性能、成本与稳定性,我们基于腾讯产品特性设计了三层架构,各组件协同形成技术闭环:1. 未来优化方向结合2025年技术趋势,后续将引入两优化方案:AI驱动弹性:利用腾讯TI-ONE平台训练负载预测模型,实现基于业务预测的提前扩容,进一步降低峰值延迟边缘推理部署:在用户集中区域的腾讯边缘节点部署轻量模型 ,将本地咨询请求的延迟降至50ms以内六、结语:原生赋能模型落地本次金融级模型部署的成功,核心在于腾讯产品矩阵的协同优势——EKS提供灵活的编排能力,CGP保障高性能算力,COS实现低成本存储, 腾讯开发者社区提供了丰富的产品文档与技术案例,希望本文的实战经验能为更多开发者提供参考,让模型真正成为驱动业务增长的核心引擎。

    88410编辑于 2025-12-10
  • 来自专栏SS-AI

    腾讯 HAI域探秘】体验模型的多种业务应用

    随着人工智能技术的不断发展,化数据量及业务的不断膨胀,模型用于业务和数据处理成为最重要发展方向。 腾讯作为国内领先的服务提供商,同样在模型领域也有相当的积累,其近期推出的 HAI(High-Performance AI)产品就展示了其实力,值得关注。 本文将深入探讨腾讯 HAI 的基于多个应用场景的使用方法。 除了HAI外,腾讯还是有其他AI产品,像人工智能的基础类产品和应用类产品,如下,如果有业务机会后续也会尝试文末提几点个人的感觉和建议首先,模型代表了AI和深度学习在自然语言处理领域的最新进展,正在彻底改变 ,又或者模型是否可以使用蒸馏等技术做压缩数据量和计算精度处理,这样可以占用更少的资源,甚至部分模型可以基于CPU就可以运行,这样就可以直接部署到腾讯的现有用户运行环境,让更多用户参与更方便应用。

    48520编辑于 2023-12-15
  • 来自专栏QQ大数据团队的专栏

    腾讯ChatBI:基于模型的效果调优方案探索

    随着近几年模型技术的不断进步,腾讯BI结合模型的产品ChatBI也就应运而生,试想一下: 如果用户想要查询公司产品这个月的收入增加了多少? 为了弥补这些不足,腾讯ChatBI在技术方案设计中进行了大量工程优化,包括意图澄清、Text2DSL研发和ICL调优等,让模型更好地理解业务场景。 2.Text2DSL(Domain Specific Language) 目前腾讯ChatBI默认是使用Text2SQL的技术路线,使用模型根据问题生成SQL。 腾讯ChatBI的DSL定义不仅参考了腾讯BI的拖拽协议,也更多考虑了协议的通用性和模型的理解能力。 三、结语 腾讯ChatBI的开发和实践展示了模型和人工智能技术在数据分析领域的巨大潜力。

    2.5K11编辑于 2024-11-25
  • 来自专栏小明说Java

    人人都可以上腾讯HAI玩转DeepSeek模型

    腾讯HAI,则为这些开发者和企业提供了一个便捷、高效的云端服务环境,让模型的开发和应用变得更加简单。 本文将详细介绍如何通过腾讯HAI轻松玩转DeepSeek模型,让AI小白也能够了解体验DeepSeek模型DeepSeek模型介绍DeepSeek模型是由杭州深度求索人工智能基础技术研究有限公司开发的一款先进的人工智能模型 腾讯HAI部署DeepSeek腾讯HAI平台为用户提供了一个简单易用的界面,通过这个平台,用户可以轻松地部署和使用DeepSeek模型。 ,腾讯HAI还可以轻松玩转DeepSeek模型。 DeepSeek模型腾讯HAI的结合,不仅降低了模型应用的门槛,更为各行业的智能化升级提供了强有力的支持,让普通小白都能够体验智能时代,还在纠结不知道怎么搭建DeepSeek模型赶紧去腾讯HAI

    60410编辑于 2025-02-09
  • 腾讯上新模型API服务,助力OpenClaw高效运行

    围绕 OpenClaw 调用需求,腾讯面向开发者提供“高性能模型 API”服务,助力开发者低门槛构建专属 AI Agent。 OpenClaw运行,需要模型提供精准解析指令、规划逻辑支持,腾讯为OpenClaw提供了便捷高效的模型 API 服务接入,开发者在配置端,即可灵活选择DeepSeek、腾讯混元等高性能模型,通过腾讯的高并发 很多开发者特别关心的是,OpenClaw在使用过程中,可能会产生较多算力消耗问题,为此腾讯同步推出了“AI全家桶”多重重磅折扣福利(最低1.3折),让更多开发者体验“模型自由”。 即日起,在腾讯官网完成实名认证的个人及企业用户,均可参与。作为一款可自建部署的开源 AI 助理,OpenClaw能够实现从“自然语言指令”到“实际任务执行”的完整闭环。 腾讯轻量应用服务器(Lighthouse)在国内率先支持OpenClaw云端极简部署。

    3.1K10编辑于 2026-02-05
领券