首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏前端框架

    手机也能本地部署 DeepSeek

    网上已经很多PC端本地部署DeepSeek的教程了,今天来教大家怎么在手机部署。 首先需要在手机端下载PocketPal。 IOS如下: 下之后,我们打开 PocketPal,打开点击 go to models 点击加号,可以选择加载模型的方式:本地或者 Hugging Face 我们可以选择Hugging Face, 搜索DeepSeek

    1.3K10编辑于 2025-02-26
  • 来自专栏C++

    DeepSeekDeepSeek概述 | 本地部署deepseek

    1 -> 概述 DeepSeek是由中国的深度求索公司开发的一系列人工智能模型,以其高效的性能和低成本的训练而受到关注。 知识蒸馏:DeepSeek-R1通过知识蒸馏,将长链推理(CoT)模型的推理能力蒸馏到标准LLM中,显著提升了推理性能。 2 -> 本地部署deepseek 2.1 -> 安装ollama ollama官网 点击Download下载 选择对应的操作系统,本次以Windows操作系统为例 点击Download for Windows 2.2 -> 部署deepseek-r1模型 回到ollama官网点击左上角的Models进入如下界面。 这样本地部署deepseek就算完成啦

    3.5K32编辑于 2025-02-08
  • 来自专栏C++

    DeepSeekdeepseek可视化部署

    1 -> 前文 【DeepSeekDeepSeek概述 | 本地部署deepseek 通过前文可以将deepseek部署到本地使用,可是每次都需要win+R输入cmd调出命令行进入到命令模式,输入命令 ollama run deepseek-r1:latest。 2 -> 部署可视化界面 进入Chatbox官网点击免费下载 下载好后双击开始安装Chatbox 点击下一步 选择适合的安装位置,并点击安装 安装成功后,就可以运行Chatbox了 进入Chatbox会弹出如下界面 ,点击使用自己的 API Key 或本地模型 点击第一个Chatbox AI 进入该界面后,点击CHATBOX AI,选择其他的模型提供方 选择Ollama API这个模型提供方 点击模型,会显示已经部署到本地的 deepseek大模型,选择该模型,并点击保存 随便提问一个问题试一下。

    90920编辑于 2025-02-12
  • deepseek本地部署有什么用?解锁 DeepSeek 本地部署

    DeepSeek 作为一款备受瞩目的大模型工具,其本地化部署逐渐成为众多用户关注的焦点。今天,我们就来深入探讨 DeepSeek 本地部署的用途,为大家详细介绍一款助力本地部署的神器,快来看看吧。​ 一、为什么要进行 DeepSeek 本地部署DeepSeek 本地部署保障数据隐私,适配敏感行业合规需求。降低网络依赖,无网络也能稳定运行,保障实时场景业务连续。 二、DS 本地部署大师 —— 本地部署的得力助手​①一键部署,轻松上手​DS 本地部署大师它内置了 DeepSeek - R1 全系列模型(1.5B/7B/14B/32B/70B),根据智能推荐并下载适合的模型版本 ②部署完成,进入体验​选择模型后等待下载,下载完成后,软件会自动安装完成。之后,点击【立即体验】进入智能界面体验DeepSeek 本地部署效果。​ DS 本地部署大师凭借其强大的功能和便捷的操作,为用户实现 DeepSeek 本地部署提供了一站式解决方案。

    2K10编辑于 2025-08-21
  • 来自专栏分享学习

    DeepSeek本地部署教程

    DeepSeek是一款强大的知识检索和问答工具,通过本地部署,用户可以更加便捷地进行知识检索和问答操作。本文将详细介绍如何在本地部署DeepSeek,以便用户能够充分利用其强大的功能。 环境要求 在本地部署DeepSeek之前,需要确保计算机满足以下环境要求: 操作系统:Linux(推荐)或Windows。 Python版本:Python 3.7及以上。 克隆DeepSeek代码 打开终端或命令行窗口,使用git命令克隆DeepSeek的GitHub仓库:git clone https://github.com/your-repository/DeepSeek.git 在DeepSeek项目目录下,运行以下命令创建虚拟环境:python3 -m venv deepseek-env(Linux)或deepseek-env\Scripts\activate(Windows (result) 使用与调试 使用DeepSeek 在成功部署并启动DeepSeek后,可以通过API服务器或直接在Python脚本中调用模型进行推理。

    1.5K10编辑于 2025-05-18
  • deepseek本地部署简要教程

    安装ollama访问:https://ollama.com/安装AI模型访问模型列表:https://ollama.com/search安装deepseek-r1命令行运行:ollama run deepseek-r1

    89420编辑于 2025-02-13
  • 如何用废旧手机部署DeepSeek-R1模型:超详细手把手教程

    今天我将为大家带来一个既环保又充满科技感的技术教程:如何用废旧手机部署DeepSeek-R1模型,让被淘汰的老手机“重获新生”,摇身一变成为一个小型AI服务器! 下载并运行Ollama安装脚本 Ollama是运行AI模型的核心平台,我们通过它来部署DeepSeek-R1。 下载并选择DeepSeek-R1模型 DeepSeek-R1模型有不同版本,根据手机配置选择合适的版本非常重要。 如果你的手机内存小于8G,输入命令ollama pull deepseek-r1:1.5b下载1.5b版本。 然后回车,DeepSeek-R1就会回复你。通过手机浏览器或聊天软件与模型对话本地访问:在手机浏览器中输入http://127.0.0.1:11434/v1。

    1.4K11编辑于 2025-02-25
  • 来自专栏运维小路

    DeepSeek-Open WebUI部署

    前面部署了vLLM版本以后,访问它比较麻烦。如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。 OPENAI_API_BASE_URL=http://127.0.0.1:8000/v1 # 设置默认模型路径 export DEFAULT_MODELS="/root/deepseekr1_1.5b/deepseek-ai /DeepSeek-R1-Distill-Qwen-1.5B" # 启动Open WebUI open-webui serve 4.配置Open WebUI 5.开始提问

    1.5K00编辑于 2025-03-04
  • 来自专栏运维小路

    DeepSeek-离线部署

    前面2个小节我们虽然介绍了在Win电脑和Linux服务器里面部署DeepSeek,他们都有安装模型的操作,而且这个操作会很费时间,那有没有一个方法可以提前下载好文件,然后只需要一个启动命令就可以实现呢? 如果要提供自动部署脚本,我们首先就是要分析我们的安装过程都做了什么,然后根据部署过程的动作才能把部署内容封装到一起。 3.文件组合打包 前面两个步骤我们搞清楚了这个DeepSeek的逻辑,我们把ollama和模型的文件放置到一起,然后进行打包压缩(该文件压缩后大概3.1G)。

    1.9K10编辑于 2025-02-21
  • 来自专栏运维小路

    DeepSeek-基于vLLM部署

    #国内镜像站 https://hf-mirror.com/deepseek-ai/DeepSeek-R1 脚本下载 #下载一个python包,用于下载模型 (vllm) [root@MiWiFi-RD03 创建下载文件 vi down_model.py #下载代码 from modelscope import snapshot_download model_dir = snapshot_download('deepseek-ai vllm serve \ /root/deepseekr1_1.5b/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \ --dtype=half 8.访问模型 这个 /DeepSeek-R1-Distill-Qwen-1.5B", "messages": [{"role": "user", "content": "写一篇关于AI安全的短论文" result = stream_chat_response() print("\n--- 完整响应 ---") print(result) 我后面用Ubuntu 20.4 重新部署了一次

    2.4K01编辑于 2025-03-03
  • 来自专栏Crossin的编程教室

    DeepSeek 本地部署指南(基于 vLLM)

    本指南将详细介绍如何使用 vLLM 在本地部署 DeepSeek 语言模型。 我们将以 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B 模型为例,逐步指导你完成环境配置、模型下载、vLLM 安装及推理服务的启动与调用。 1. 下载 DeepSeek 模型 接下来,我们需要下载 deepseek-ai/DeepSeek-R1-Distill-Qwen-7B 模型。 虽然某些模型可能需要注册账号,但 DeepSeek-R1-Distill-Qwen-7B 是公开的,可直接下载。 3. 安装 vLLM vLLM 是一个高效的大型语言模型推理库,支持快速部署。 总结 通过以上步骤,你已成功在本地部署DeepSeek 模型,并能够通过 vLLM 进行推理。如果在部署过程中遇到问题,请参考 vLLM 官方文档或在相关社区寻求帮助。祝你使用愉快!

    79810编辑于 2026-03-11
  • 来自专栏小陈运维

    使用Ollama部署deepseek大模型

    使用Ollama部署deepseek大模型前置条件使用英伟达显卡下载cuda驱动https://developer.nvidia.com/cuda-downloadsOllamaOllama 官方版: 模型,也可以启动他的模型https://ollama.com/search# 模型的安装命令# 1.5B Qwen DeepSeek R1 # 所需空间大约 1.1Gollama run deepseek-r1 :1.5b# 7B Qwen DeepSeek R1# 所需空间大约 4.7Gollama run deepseek-r1:7b# 8B Llama DeepSeek R1# 所需空间大约 4.9Gollama run deepseek-r1:8b# 14B Qwen DeepSeek R1# 所需空间大约 9Gollama run deepseek-r1:14b# 32B Qwen DeepSeek R1# 所需空间大约 20Gollama run deepseek-r1:32b# 70B Llama DeepSeek R1# 所需空间大约 43Gollama run deepseek-r1:70b# 671B

    3.4K12编辑于 2025-01-26
  • 来自专栏FreeBuf

    在任意手机部署Nethunter

    0x01 前言 Kali Nethunter是一款用于安全研究的手机固件包,可以使Android设备增加“无线破解”、“HID攻击”、“伪造光驱”等的硬件功能以及metasploit等软件工具,目前官方只支持少量的 Android手机: ? 但是像我这种学生狗比较喜欢用小米、魅族之类的手机,但是我又想不换手机又用上nethunter,所以就通过查找资料找到了这个方法。

    2.9K60发布于 2018-02-23
  • 来自专栏Tencent云服务征文

    DeepSeek上云 | 腾讯云HAI如何部署使用DeepSeek

    前言对于本地PC部署DeepSeek,可能会受到电脑的内存、CPU、显卡的限制,如果想要扩容的话,只能更换硬件,这样的话成本简直高得离谱。而腾讯云高性能应用服务HAI恰恰解决了这个问题。 HAI提供了不同的算力套餐,用户可以根据自己的需求购买,并且可以通过HAI预置的多种 AI 环境帮助用户快速部署。所以本篇文章主要探究如何使用HAI,一键轻松完成DeepSeek部署。 按照我们本地部署的思维和步骤来说,在上面步骤中选择安装Ollama,然后再用Ollama拉取DeepSeek大模型完成部署。 选择应用 - DeepSeek我们在社区应用下可以找到 DeepSeek-R1 进行选择。这里HAI提供了DeepSeek-R1 1.5B及7B两种模型环境,能够满足用户快速部署和使用的需求。3. 结语与TIONE安装DeepSeek相比较,HAI也具备了快速部署DeepSeek的能力。通过一键式操作,用户就可以使用云化的DeepSeek

    1.8K50编辑于 2025-02-07
  • 来自专栏云上实验室

    如何快速部署DeepSeek| 腾讯云TI部署指南

    一、为什么要使用DeepSeek + 腾讯云HAI近年来,随着大模型与多场景应用的蓬勃发展,AI工程师越来越需要快速、高效且低成本地部署和管理模型服务。 在模型体验中可以体验与DeepSeek模型的对话。创建在线服务在DeepSeek的模型页面,点击新建在线服务,进入到服务创建页面。填入服务名称之后,选择机器来源用来部署DeepSeek。1. 轻量级,适合移动端和本地推理低(PC 可运行)DeepSeek-R1-Distill-Qwen-7BQwen7B适合本地推理和轻量级服务器部署中等(24GB+ VRAM)DeepSeek-R1-Distill-Llama 点击调用API,可以查看DeepSeek的服务调用地址。同时可以点击实例进入详情页面,我们可以看到安装了DeepSeek大模型实例的信息。这样,我们就完成了DeepSeek在腾讯云TI平台的部署。 有任何问题或意见,欢迎在相关社区或官方文档中查阅更多信息,也可以向腾讯云和DeepSeek官方团队寻求支持。祝你一切部署顺利,玩得开心!

    1.4K30编辑于 2025-02-10
  • 来自专栏开发经验

    DeepSeek本地部署+微调训练

    本地训练流程(无需专业知识),从数据准备到模型部署的完整操作指南:一、准备训练数据1. 启动训练在命令行执行(根据显存调整参数):accelerate launch train_deepseek.py \ --model_name "deepseek-ai/deepseek-llm-7b 查看训练日志训练文件夹会生成 training_logs.txt,重点关注:Epoch 1/3 | Loss: 2.34 → 1.78Epoch 2/3 | Loss: 1.78 → 1.23五、部署训练好的模型 # 立即恢复原始版本四、商业合规提醒模型版权:微调后的模型仍需遵守DeepSeek的使用协议数据安全:建议训练数据去除敏感信息,可通过命令检查:grep -r "身份证号|手机号" . 就像给智能手机安装专业APP,既不需要重新发明手机,又能获得定制功能。

    3.5K23编辑于 2025-02-25
  • 来自专栏AllTests软件测试

    本地部署AI大模型DeepSeek

    DeepSeek的核心产品,是一系列强大的大语言模型。 官方网址: https://www.deepseek.com/ 本篇讲解如何快速的在本地部署AI大模型DeepSeek。 2、本地部署DeepSeek 1、首先要下载安装Ollama。 Ollama是一个开源的大型语言模型本地部署框架。 特点: 多平台支持,如Windows、macOS、Linux,还支持Docker,方便跨平台部署。 2、搜索并安装DeepSeek模型。 搜索大语言模型: https://ollama.com/search 可以看到DeepSeek-R1。 它支持多种大语言模型运行程序,如Ollama和兼容OpenAI的应用程序编程接口(API),还内置了用于检索增强生成(RAG)的推理引擎,使其成为一个强大的人工智能部署解决方案。

    76610编辑于 2025-02-10
  • 来自专栏小陈运维

    使用Ollama部署deepseek大模型

    使用Ollama部署deepseek大模型 前置条件 使用英伟达显卡下载cuda驱动 https://developer.nvidia.com/cuda-downloads Ollama Ollama deepseek-r1:1.5b # 7B Qwen DeepSeek R1 # 所需空间大约 4.7G ollama run deepseek-r1:7b # 8B Llama DeepSeek R1 # 所需空间大约 4.9G ollama run deepseek-r1:8b # 14B Qwen DeepSeek R1 # 所需空间大约 9G ollama run deepseek-r1 :14b # 32B Qwen DeepSeek R1 # 所需空间大约 20G ollama run deepseek-r1:32b # 70B Llama DeepSeek R1 # 所需空间大约 43G ollama run deepseek-r1:70b # 671B Llama DeepSeek R1 # 所需空间大约 404G ollama run deepseek-r1:671b

    2.7K20编辑于 2025-02-04
  • 来自专栏IT从业者张某某

    DeepSeek从云端模型部署到应用开发-01-社区内一键部署DeepSeek

    背景 DeepSeek现在流行度正盛,今年的机器学习就用他作为一个开端,开整。 本文是基于百度aistudio的在线课程《DeepSeek从云端模型部署到应用开发》。 AIstudio社区内一键部署DeepSeek 什么是Ollama Ollama的原理主要涉及模型架构基础、本地化运行机制、多模型管理策略、量化与优化技术等多个方面,以下是具体说明: 基于Transformer 跨平台兼容:支持Windows、macOS、Linux(包括ARM架构如树莓派),甚至结合Termux工具可在手机部署。 应用 模型蒸馏的应用场景几乎涵盖了AI的各个领域,如自然语言处理领域的DistilBERT、TinyBERT,可让手机等设备也能运行NLP模型;在计算机视觉领域,可将大型卷积神经网络蒸馏为轻量级模型,用于手机拍照 模型参数量 社区内一键部署DeepSeek 首先点击部署 选择新建部署,然后选择llama-70B模型 然后就部署成功了 点击使用或详情,可以查看到具体的api-key和地址,需要注意的是,现在api-key

    52500编辑于 2025-03-15
  • 在docker内部署deepseek rag环境

    首先介绍下什么是RAG(Retrieval-Augmented Generation),deepseek等通用大模型在回答专业细分领域知识的时候,由于上下文缺乏,导致最终效果不是很好。 下面介绍下如何在docker内部搭建基于deepseek的rag环境。deepseek环境的搭建类似于在mac上部署本地deepseek模型。只不过运行在docker环境内部。 然后运行ollama命令拉取deepseek模型,并启动服务,和在主机运行ollama一样,只不过这次在docker 内部。 docker exec -it ollama ollama run deepseek-r1:1.5b 然后查看下我们的模型列表 % docker exec -it ollama ollama list 这里选取qdrant,同样部署到docker里面,其中6333和6334分别对应http端口和grpc端口 docker run -d -p 6333:6333 -p 6334:6334 \ -v /learn

    15810编辑于 2026-03-18
领券