首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Tencent云服务征文

    DeepSeek | 腾讯HAI如何部署使用DeepSeek

    前言对于本地PC部署DeepSeek,可能会受到电脑的内存、CPU、显卡的限制,如果想要扩容的话,只能更换硬件,这样的话成本简直高得离谱。而腾讯高性能应用服务HAI恰恰解决了这个问题。 HAI提供了不同的算力套餐,用户可以根据自己的需求购买,并且可以通过HAI预置的多种 AI 环境帮助用户快速部署。所以本篇文章主要探究如何使用HAI,一键轻松完成DeepSeek部署。 按照我们本地部署的思维和步骤来说,在上面步骤中选择安装Ollama,然后再用Ollama拉取DeepSeek大模型完成部署。 选择应用 - DeepSeek我们在社区应用下可以找到 DeepSeek-R1 进行选择。这里HAI提供了DeepSeek-R1 1.5B及7B两种模型环境,能够满足用户快速部署和使用的需求。3. 结语与TIONE安装DeepSeek相比较,HAI也具备了快速部署DeepSeek的能力。通过一键式操作,用户就可以使用化的DeepSeek

    1.8K50编辑于 2025-02-07
  • 来自专栏云上实验室

    如何快速部署DeepSeek| 腾讯TI部署指南

    一、为什么要使用DeepSeek + 腾讯HAI近年来,随着大模型与多场景应用的蓬勃发展,AI工程师越来越需要快速、高效且低成本地部署和管理模型服务。 腾讯HAI(High-performance AI)平台是一个面向高性能计算与深度学习的综合解决方案,提供了 GPU/CPU 资源调度、自动化部署以及运维监控等功能;而 DeepSeek 则是一个帮助开发者快速搭建数据处理 三、快速部署流程腾讯TI平台首次登录腾讯TI平台时,需要创建服务角色,跟着流程指引完成授权之后,进入到TI平台的大模型广场。 选择主机资源一种方式是从已有的腾讯CVM中选择安装DeepSeek,这样DeepSeek模型运行和推理时,就会使用CVM服务器的资源。 点击调用API,可以查看DeepSeek的服务调用地址。同时可以点击实例进入详情页面,我们可以看到安装了DeepSeek大模型实例的信息。这样,我们就完成了DeepSeek在腾讯TI平台的部署

    1.4K30编辑于 2025-02-10
  • 来自专栏Tencent云服务征文

    腾讯TI平台极速部署DeepSeek

    但是如果想要部署一个DeepSeek服务,随时随地可以使用DeepSeek的话,就可以考虑使用腾讯的HAI或者TI平台。 腾讯TI平台是为 AI 工程师打造的一站式机器学习平台,可以快速帮助用户实现模型训练、模型评估以及模型部署等工作。 DeepSeek作为大模型的后起之秀,腾讯TI平台同样提供了一键式部署DeepSeek的能力。 点击调用API,可以查看DeepSeek的服务调用地址。同时可以点击实例进入详情页面,我们可以看到安装了DeepSeek大模型实例的信息。这样,我们就完成了DeepSeek在腾讯TI平台的部署。 结语可以看到通过腾讯的TI平台,我们不需要自己部署DeepSeek大模型运行环境,也不需要自己购买服务器,通过资源打包、按量计费的模式,通过简单的界面化配置,完成了DeepSeek部署

    1.7K20编辑于 2025-02-06
  • 腾讯 DeepSeek 系列模型部署HAI实战

    在这一技术浪潮中,国内头部厂商加速布局AI基础设施与工具链建设,其中腾讯凭借其Deepseek系列大模型与**高性能AI计算实例(HAI)**的深度整合,为开发者提供了从模型训练到应用落地的全栈解决方案 操作过程:第一步:跳转链接https://cloud.tencent.com/act/pro/deepseek2025#HAI-CPU购买一个体验版的HAI,用于本次部署HAI的必要条件;第二步:点击立即购买选择一个可以购买的资源 所以说要选择一个可以购买的进行支付即可;第三步:进行支付支付成功:选择已成功支付即可;第四步:登录cnb.cool地址登录成功:第五步:跳转这个地址https://cnb.cool/ai-awesome/deepseek 选择分支:第六步:点击fork,进入原生开发注意点:这个环节与官方视频中的不一致的地方,需要先点击fork,然后页面才会刷新出来“原生开发”的按钮加载环境加载成功之后,会显示如下图选择WebIDE 但是如果只是根据视频进行搭建还是会存在一定的问题,只有实际搭建的时候,才会发现一些问题,当然了搭建好了模型之后只是第一步,如何根据搭建的服务进行调用,才是最重要的,这个点后续会继续更新对应的文章进行介绍,毕竟现在搭建deepseek

    54521编辑于 2025-03-23
  • 来自专栏C++

    DeepSeekDeepSeek概述 | 本地部署deepseek

    1 -> 概述 DeepSeek是由中国的深度求索公司开发的一系列人工智能模型,以其高效的性能和低成本的训练而受到关注。 知识蒸馏:DeepSeek-R1通过知识蒸馏,将长链推理(CoT)模型的推理能力蒸馏到标准LLM中,显著提升了推理性能。 2 -> 本地部署deepseek 2.1 -> 安装ollama ollama官网 点击Download下载 选择对应的操作系统,本次以Windows操作系统为例 点击Download for Windows 2.2 -> 部署deepseek-r1模型 回到ollama官网点击左上角的Models进入如下界面。 这样本地部署deepseek就算完成啦

    3.5K32编辑于 2025-02-08
  • 来自专栏腾讯专有云

    腾讯DeepSeek私有部署工具箱上线啦!

    关于 腾讯专有 腾讯专有TCE是基于腾讯公有成熟体系自研的私有化版本,帮助客户建设面向大模型时代的自主可控、弹性伸缩的全栈数字化底座,为企业数字化运营提供一站式解决方案。

    2.1K10编辑于 2025-03-27
  • 来自专栏大模型快速上手实践

    如何快速接入DeepSeek | 腾讯HAI部署指南

    一、为什么要使用DeepSeek + 腾讯HAI近年来,随着大模型与多场景应用的蓬勃发展,AI工程师越来越需要快速、高效且低成本地部署和管理模型服务。 腾讯HAI(High-performance AI)平台是一个面向高性能计算与深度学习的综合解决方案,提供了 GPU/CPU 资源调度、自动化部署以及运维监控等功能;而 DeepSeek 则是一个帮助开发者快速搭建数据处理 三、快速部署流程在开始前,需要先完成以下准备工作:注册腾讯账号:如果还没有腾讯账号,请访问腾讯官网注册并完成实名认证。 我们在社区应用下可以找到 DeepSeek-R1 进行选择。这里HAI提供了DeepSeek-R1 1.5B及7B两种模型环境,能够满足用户快速部署和使用的需求。2. ollama run deepseek-r1:16b通过本文的部署指南,你应该对在腾讯HAI平台上快速接入并部署DeepSeek有了大致的认识与操作思路。

    1.7K10编辑于 2025-02-08
  • 来自专栏C++

    DeepSeekdeepseek可视化部署

    1 -> 前文 【DeepSeekDeepSeek概述 | 本地部署deepseek 通过前文可以将deepseek部署到本地使用,可是每次都需要win+R输入cmd调出命令行进入到命令模式,输入命令 ollama run deepseek-r1:latest。 2 -> 部署可视化界面 进入Chatbox官网点击免费下载 下载好后双击开始安装Chatbox 点击下一步 选择适合的安装位置,并点击安装 安装成功后,就可以运行Chatbox了 进入Chatbox会弹出如下界面 ,点击使用自己的 API Key 或本地模型 点击第一个Chatbox AI 进入该界面后,点击CHATBOX AI,选择其他的模型提供方 选择Ollama API这个模型提供方 点击模型,会显示已经部署到本地的 deepseek大模型,选择该模型,并点击保存 随便提问一个问题试一下。

    91220编辑于 2025-02-12
  • 来自专栏服务器运维日常

    喂饭式教程 - 腾讯HAI服务部署DeepSeek

    什么是HAI高性能应用服务 HAI 基于腾讯云海量、弹性的GPU算力,提供即插即用的高性能服务。 是一款面向 AI 、科学计算的 GPU 应用服务产品,提供即插即用的澎湃算力与常见环境,助力中小企业及开发者快速部署 LLM。 简单理解就是,HAI是有GPU算力的服务,可以用于各种AI产品的部署,当然也可以部署DeepSeek。 四、创建管理员账号五、进行对话至此私有化部署及设置DeepSeek已完成,可以进行对话。系统默认已安装部分DeepSeek模型,可以直接选择使用。 从运行结果来看,拥有更大参数量的模型(如DeepSeek-R1)在推理效果上更胜一筹,但另一方面,更小参数的 Distilled models(蒸馏模型)模型的响应速度更快、占用资源更少、部署时长更短,

    1.3K71编辑于 2025-02-11
  • 来自专栏猫头虎技术专区

    DeepSeek私有化部署解决方案:如何在腾讯HAI上部署并使用DeepSeek蒸馏模型

    DeepSeek私有化部署解决方案:如何在腾讯HAI上部署并使用DeepSeek蒸馏模型 摘要 本文详细介绍了如何在腾讯HAI(Hyper Acceleration Instance)上实现DeepSeek 本教程将详细讲解如何通过腾讯HAI(Hyper Acceleration Instance)实现DeepSeek模型的私有化部署,并提供完整的操作指南。 二、环境准备 1. 优化指南:https://docs.vllm.ai/en/latest 使用心得 在腾讯HAI上部署DeepSeek模型的过程相对简单,尤其是通过ChatbotUI界面,用户可以快速选择并加载DeepSeek 希望DeepSeek能够持续推出更多功能强大的模型版本,并加强与各大服务平台的合作,提供更加便捷的部署方案。最终目标是实现人人都能轻松部署和使用DeepSeek,推动AI技术在各行各业的广泛应用。 总结 DeepSeek的私有化部署解决方案为企业用户提供了安全、可控的AI模型使用环境。通过腾讯HAI,用户可以快速部署并体验DeepSeek的强大功能。

    2.2K70编辑于 2025-02-10
  • deepseek本地部署有什么用?解锁 DeepSeek 本地部署

    DeepSeek 作为一款备受瞩目的大模型工具,其本地化部署逐渐成为众多用户关注的焦点。今天,我们就来深入探讨 DeepSeek 本地部署的用途,为大家详细介绍一款助力本地部署的神器,快来看看吧。​ 一、为什么要进行 DeepSeek 本地部署DeepSeek 本地部署保障数据隐私,适配敏感行业合规需求。降低网络依赖,无网络也能稳定运行,保障实时场景业务连续。 二、DS 本地部署大师 —— 本地部署的得力助手​①一键部署,轻松上手​DS 本地部署大师它内置了 DeepSeek - R1 全系列模型(1.5B/7B/14B/32B/70B),根据智能推荐并下载适合的模型版本 ②部署完成,进入体验​选择模型后等待下载,下载完成后,软件会自动安装完成。之后,点击【立即体验】进入智能界面体验DeepSeek 本地部署效果。​ DS 本地部署大师凭借其强大的功能和便捷的操作,为用户实现 DeepSeek 本地部署提供了一站式解决方案。

    2K10编辑于 2025-08-21
  • DeepSeek实践-5分钟快速腾讯部Ollama部署本地部署

    以下是一个通用的步骤指南,帮助普通人快速部署 DeepSeek,快速部署 DeepSeek 的关键在于: 明确需求。 准备好环境和依赖。 获取并配置模型。 测试和部署。 硬件要求 一台服务器或高性能计算机(推荐使用服务器) 软件要求 操作系统:Linux(推荐Ubuntu 20.04或更高版本) Docker:用于容器化部署 部署逻辑: 说明: 安装Ollama; 使用 腾讯部署在腾讯 AI 代码助手,开发者可配置接入DeepSeeK R1 及其他模型的官网 API ! 也可接入本地 Ollama 部署Deepseek 大模型,结合腾讯AI代码助手和 DeepSeek ,开发者可实现更加强大、高效、安全的 AI 编程体验。 在腾讯AI代码助手中配置 API key 点击腾讯 AI 代码助手侧栏打开技术对话功能,在对话框右边有一个模型选项,默认为 hunyuan-turbo 模型。

    2.4K21编辑于 2025-03-19
  • 来自专栏码匠的流水账

    服务器部署DeepSeek Janus Pro生成图片实战

    序 本文主要研究一下如何在腾讯HAI-GPU服务器上部署DeepSeek Janus Pro来进行文本生成图片 步骤 选择带GPU的服务器 到deepseek2025试用一下带GPU的服务器 下载Janus git clone https://github.com/deepseek-ai/Janus.git 安装依赖 cd Janus pip install -e . /Janus-1.3B 小结 自己部署实际还是挺多麻烦的(最开始是在mac上跑,遇到CUDA_HOME问题,后来是找了cpu版本的,遇到没有GPU的问题,最后用了一个带GPU的服务器才跑成功),会遇到各种依赖问题 ,还有GPU等配置问题,另外就是网络访问问题,所以实际折腾下来就是,如果没有其他特殊需求,还是乖乖用服务的api吧。 doc deepseek2025 DeepSeek 多模态大模型Janus-Pro-7B,本地部署教程!支持图像识别和图像生成

    73610编辑于 2025-02-26
  • 来自专栏分享学习

    DeepSeek本地部署教程

    DeepSeek是一款强大的知识检索和问答工具,通过本地部署,用户可以更加便捷地进行知识检索和问答操作。本文将详细介绍如何在本地部署DeepSeek,以便用户能够充分利用其强大的功能。 环境要求 在本地部署DeepSeek之前,需要确保计算机满足以下环境要求: 操作系统:Linux(推荐)或Windows。 Python版本:Python 3.7及以上。 克隆DeepSeek代码 打开终端或命令行窗口,使用git命令克隆DeepSeek的GitHub仓库:git clone https://github.com/your-repository/DeepSeek.git 在DeepSeek项目目录下,运行以下命令创建虚拟环境:python3 -m venv deepseek-env(Linux)或deepseek-env\Scripts\activate(Windows (result) 使用与调试 使用DeepSeek 在成功部署并启动DeepSeek后,可以通过API服务器或直接在Python脚本中调用模型进行推理。

    1.5K10编辑于 2025-05-18
  • 来自专栏AI 大数据

    部署大模型不再难:DeepSeek + 腾讯 HAI 实战教程

    摘要如果你正准备在部署DeepSeek 这样的开源大模型,但又不想从零折腾容器、模型加速和 API 服务,腾讯 HAI 平台就能帮你把这些流程一步步跑通。 引言部署大模型听起来高大上,其实最常见的痛点无非这几件事:模型体积太大,推理服务卡顿配环境、写 Dockerfile、跑服务太折腾不会写 API 或者不会把模型服务部署在线上想部署在云端,但不知道该选哪种资源和平台好消息是 简单来说,HAI(High-performance AI Infra)平台是腾讯为 AI 模型部署专门做的平台。 总结如果你想快速部署 DeepSeek 模型,尤其是在没有大规模算力和运维能力的情况下,腾讯 HAI 平台是一条非常平滑的路径。它帮你挡掉了大部分的系统杂活,让你可以专注在模型逻辑和业务应用上。 参考资料DeepSeek GitHub 仓库腾讯 HAI 官方文档

    81010编辑于 2025-04-09
  • 来自专栏玩转AI

    DeepSeek喂饭级教程:腾讯HAI一键部署

    这里我给你带来的是私有化部署方案,采用腾讯HAI平台,可以一键部署,轻松获取这款强力的大模型!接下来我手把手教你如何操作,简单几分钟就能轻易上手! 开始选购首先你需要注册腾讯的账号,实名认证后,访问腾讯HAI产品介绍页面:https://cloud.tencent.com/product/hai可以看到下面有个【一键部署】:点击【立即使用】,跳转腾讯 -腾讯网络是每台实例免费提供500GB流量包,默认10Mbps带宽,每月刷新,这个地方无法选择配置,但对于个人用户来说是完全够用了。 总结通过本篇DeepSeek部署教程,你可以快速拥有一个专属于你自己的DeepSeek大模型服务,无论是你学生、职场办公人士,还是开发者,都能借助DeepSeek AI能力,帮你解决工作学习生活等各种问题 感谢你的阅读,如果在部署过程中遇到任何问题,欢迎在下方评论区留言。

    1.3K10编辑于 2025-02-06
  • 来自专栏云探索

    腾讯TI平台×DeepSeek:开启AI超强体验,解锁部署秘籍

    本文将详细介绍利用腾讯TI平台以及DeepSeek系列模型,帮助开发者们轻松部署DeepSeek,开启全新的AI体验。 二、腾讯 TI 平台部署 DeepSeek 优势 (一)便捷高效的部署流程 在腾讯 TI 平台部署 DeepSeek 模型,操作流程极为简便。 以部署 DeepSeek-R1 模型为例,用户首先登录腾讯 TI 平台,在 “大模型广场” 中找到 DeepSeek 系列模型卡片。点击进入后,选择 “新建在线服务”,即可开始部署部署实战:手把手教 三、部署实战:腾讯 TI 平台部署 DeepSeek 下面以部署 DeepSeek-R1-Distill-Qwen-7B 模型为例,详细说明在腾讯 TI 平台上的部署过程。 总结 在今天的分享中,我们一同深入探索了腾讯 TI 平台部署 DeepSeek 模型的精彩世界。信大家已经对在腾讯 TI 平台部署 DeepSeek 模型有了全面且深入的了解。

    1.2K20编辑于 2025-02-08
  • 来自专栏服务器运维日常

    喂饭式教程 - 腾讯轻量服务器部署DeepSeek

    前言 视频版已发布:喂饭式视频教程 - 腾讯轻量服务器部署DeepSeek(https://cloud.tencent.com/developer/video/82080) 前置条件 有1台 最低配置为 四、创建管理员账号 五、进行对话 至此私有化部署及设置DeepSeek已完成,可以进行对话。 不愧是AI,想的就是多。 模型 模型名 模型大小 DeepSeek-R1-Distill-Qwen-1.5B deepseek-r1:1.5b 1.1G DeepSeek-R1-Distill-Qwen-7B deepseek-r1 :7b 4.7G DeepSeek-R1-Distill-Llama-8B deepseek-r1:8b 4.9G DeepSeek-R1-Distill-Qwen-14B deepseek-r1:14b 从运行结果来看,拥有更大参数量的模型(如DeepSeek-R1)在推理效果上更胜一筹,但另一方面,更小参数的 Distilled models(蒸馏模型)模型的响应速度更快、占用资源更少、部署时长更短,

    2K31编辑于 2025-03-04
  • 来自专栏服务器运维日常

    喂饭式教程 - 腾讯HAI服务原生安装Ollama部署DeepSeek

    一、什么是OllamaOllama是一个专注于在本地机器上便捷部署和运行大型语言模型(LLM)的开源框架。 二、开通HAI服务进入腾讯高性能应用服务 HAI 的购买页面,选择应用->基础环境,选择对应的操作系统,选择合适的配置,开通后就可以使用 HAI 实例。 三、Linux 部署 Ollama3.1、复制安装命令打开 Ollama 官网,点击下载,选择 Linux ,复制安装命令。3.2 命令安装 Ollama在服务器终端输入命令,等待下载安装。 四、Windows 部署 Ollama4.1、下载Ollama安装软件打开 Ollama 官网,点击下载,选择 Windows ,下载软件安装程序,完成安装。 从运行结果来看,拥有更大参数量的模型(如DeepSeek-R1)在推理效果上更胜一筹,但另一方面,更小参数的 Distilled models(蒸馏模型)模型的响应速度更快、占用资源更少、部署时长更短,

    1.2K20编辑于 2025-02-13
  • 来自专栏运维小路

    DeepSeek-离线部署

    前面2个小节我们虽然介绍了在Win电脑和Linux服务器里面部署DeepSeek,他们都有安装模型的操作,而且这个操作会很费时间,那有没有一个方法可以提前下载好文件,然后只需要一个启动命令就可以实现呢? 如果要提供自动部署脚本,我们首先就是要分析我们的安装过程都做了什么,然后根据部署过程的动作才能把部署内容封装到一起。 3.文件组合打包 前面两个步骤我们搞清楚了这个DeepSeek的逻辑,我们把ollama和模型的文件放置到一起,然后进行打包压缩(该文件压缩后大概3.1G)。

    1.9K10编辑于 2025-02-21
领券