首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏C++

    DeepSeekDeepSeek概述 | 本地部署deepseek

    1 -> 概述 DeepSeek是由中国的深度求索公司开发的一系列人工智能模型,以其高效的性能和低成本的训练而受到关注。 知识蒸馏:DeepSeek-R1通过知识蒸馏,将长链推理(CoT)模型的推理能力蒸馏到标准LLM中,显著提升了推理性能。 2 -> 本地部署deepseek 2.1 -> 安装ollama ollama官网 点击Download下载 选择对应的操作系统,本次以Windows操作系统为例 点击Download for Windows 2.2 -> 部署deepseek-r1模型 回到ollama官网点击左上角的Models进入如下界面。 这样本地部署deepseek就算完成啦

    3.5K32编辑于 2025-02-08
  • deepseek本地部署有什么用?解锁 DeepSeek 本地部署

    DeepSeek 作为一款备受瞩目的大模型工具,其本地部署逐渐成为众多用户关注的焦点。今天,我们就来深入探讨 DeepSeek 本地部署的用途,为大家详细介绍一款助力本地部署的神器,快来看看吧。​ 一、为什么要进行 DeepSeek 本地部署DeepSeek 本地部署保障数据隐私,适配敏感行业合规需求。降低网络依赖,无网络也能稳定运行,保障实时场景业务连续。 二、DS 本地部署大师 —— 本地部署的得力助手​①一键部署,轻松上手​DS 本地部署大师它内置了 DeepSeek - R1 全系列模型(1.5B/7B/14B/32B/70B),根据智能推荐并下载适合的模型版本 ②部署完成,进入体验​选择模型后等待下载,下载完成后,软件会自动安装完成。之后,点击【立即体验】进入智能界面体验DeepSeek 本地部署效果。​ DS 本地部署大师凭借其强大的功能和便捷的操作,为用户实现 DeepSeek 本地部署提供了一站式解决方案。

    2K10编辑于 2025-08-21
  • 来自专栏分享学习

    DeepSeek本地部署教程

    DeepSeek是一款强大的知识检索和问答工具,通过本地部署,用户可以更加便捷地进行知识检索和问答操作。本文将详细介绍如何在本地部署DeepSeek,以便用户能够充分利用其强大的功能。 环境要求 在本地部署DeepSeek之前,需要确保计算机满足以下环境要求: 操作系统:Linux(推荐)或Windows。 Python版本:Python 3.7及以上。 克隆DeepSeek代码 打开终端或命令行窗口,使用git命令克隆DeepSeek的GitHub仓库:git clone https://github.com/your-repository/DeepSeek.git 在DeepSeek项目目录下,运行以下命令创建虚拟环境:python3 -m venv deepseek-env(Linux)或deepseek-env\Scripts\activate(Windows (result) 使用与调试 使用DeepSeek 在成功部署并启动DeepSeek后,可以通过API服务器或直接在Python脚本中调用模型进行推理。

    1.5K10编辑于 2025-05-18
  • deepseek本地部署简要教程

    安装ollama访问:https://ollama.com/安装AI模型访问模型列表:https://ollama.com/search安装deepseek-r1命令行运行:ollama run deepseek-r1

    89420编辑于 2025-02-13
  • 来自专栏Crossin的编程教室

    DeepSeek 本地部署指南(基于 vLLM)

    本指南将详细介绍如何使用 vLLM 在本地部署 DeepSeek 语言模型。 运行以下命令安装 ModelScope: pip install modelscope 下载模型:使用以下命令下载模型并保存到本地: modelscope download --model deepseek-ai /DeepSeek-R1-Distill-Qwen-7B --local_dir /path/to/save/model 将 /path/to/save/model 替换为你希望保存模型的本地路径。 虽然某些模型可能需要注册账号,但 DeepSeek-R1-Distill-Qwen-7B 是公开的,可直接下载。 3. 安装 vLLM vLLM 是一个高效的大型语言模型推理库,支持快速部署。 总结 通过以上步骤,你已成功在本地部署DeepSeek 模型,并能够通过 vLLM 进行推理。如果在部署过程中遇到问题,请参考 vLLM 官方文档或在相关社区寻求帮助。祝你使用愉快!

    79010编辑于 2026-03-11
  • 来自专栏开发经验

    DeepSeek本地部署+微调训练

    本地训练流程(无需专业知识),从数据准备到模型部署的完整操作指南:一、准备训练数据1. 下载训练脚本创建文件夹:mkdir deepseek_train下载官方示例脚本:wget https://example.com/train_deepseek.py wget https://example.com 启动训练在命令行执行(根据显存调整参数):accelerate launch train_deepseek.py \ --model_name "deepseek-ai/deepseek-llm-7b 查看训练日志训练文件夹会生成 training_logs.txt,重点关注:Epoch 1/3 | Loss: 2.34 → 1.78Epoch 2/3 | Loss: 1.78 → 1.23五、部署训练好的模型 --gradient_checkpointing 参数输出乱码检查数据文件是否保存为UTF-8编码模型不加载确认.gguf文件是否放在正确的models目录按照这个流程操作,即使没有AI基础也能完成本地训练

    3.5K23编辑于 2025-02-25
  • 来自专栏AllTests软件测试

    本地部署AI大模型DeepSeek

    官方网址: https://www.deepseek.com/ 本篇讲解如何快速的在本地部署AI大模型DeepSeek。 2、本地部署DeepSeek 1、首先要下载安装Ollama。 Ollama是一个开源的大型语言模型本地部署框架。 特点: 多平台支持,如Windows、macOS、Linux,还支持Docker,方便跨平台部署本地运行,让用户可在本地设备上运行大型语言模型,无需网络连接也能使用部分功能。 官方网址: https://ollama.com/ 快速上手使用大语言模型。 在本地运行Llama 3.3、DeepSeek-R1、Phi-4、Mistral、Gemma 2等模型。 根据所属平台,下载指定的Ollama。 它支持多种大语言模型运行程序,如Ollama和兼容OpenAI的应用程序编程接口(API),还内置了用于检索增强生成(RAG)的推理引擎,使其成为一个强大的人工智能部署解决方案。

    76610编辑于 2025-02-10
  • 来自专栏stark张宇

    新手快速安装部署本地DeepSeek

    概述随着DeepSeek的爆火,身为行业从业人员不得不了解和接受,AI做为一种工作中工具的重要性已经变的不言而喻了,互联网的维度已经在悄悄的变化了,分享一篇本地安装部署DeepSeek的教程。 ,去终端执行命令,下图是官方介绍模型的对比和差异:下载模型命令,windows对应的就是打开Cmd,执行命令,过程是一样的:ollama run deepseek-r1:7b安装完成如下图:3、使用理论上本地安装完了 ,就可以使用本地部署的模型进行简单交互,下图中>>>后面是我提问的问题,蓝色的think是DeepSeek-R1自我思考和推理的过程,绿色的框经过推理而得出是答案,是不是很简单,就在本地部署完了。 Open Web Ui第二种方式使用Open Web Ui方式进行部署,首先你要安装Docker,用容器的方式来进行安装和访问,Github地址:https://github.com/open-webui v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main本地访问

    95544编辑于 2025-02-15
  • 来自专栏前端框架

    手机也能本地部署 DeepSeek

    网上已经很多PC端本地部署DeepSeek的教程了,今天来教大家怎么在手机端部署。 首先需要在手机端下载PocketPal。 安卓如下: IOS如下: 下之后,我们打开 PocketPal,打开点击 go to models 点击加号,可以选择加载模型的方式:本地或者 Hugging Face 我们可以选择Hugging Face , 搜索DeepSeek 选择想要的模型下载 等待下载完成,然后点击Load按钮,加载模型。

    1.3K10编辑于 2025-02-26
  • 来自专栏软件测试学习

    Ollama搭配DeepSeek本地部署全攻略

    在人工智能领域,大型语言模型(LLMs)正变得越来越普及,而将这些模型部署本地设备上,不仅可以提高数据隐私性,还能降低对网络的依赖。 Ollama 是一个开源工具,能够帮助用户轻松地在本地运行各种大型语言模型,包括 DeepSeek。本文将详细介绍如何通过 Ollama 在本地安装和使用 DeepSeek 模型。 一、Ollama 简介 Ollama 是一个开源的本地大模型部署工具,旨在让用户能够在个人电脑上运行各种开源大型语言模型(如 Llama、DeepSeek 等)。 通过 Ollama,开发者、研究者和爱好者可以快速部署私有化 AI 应用,无需依赖云端服务,同时享受高效、安全的本地 AI 体验。 通过 Ollama 在本地使用 DeepSeek 模型,不仅可以提供更高的隐私性和灵活性,还能让用户在没有互联网连接的情况下使用 AI 大模型。

    6.9K10编辑于 2025-02-18
  • 本地部署DeepSeek R1大模型

    1.2 安装cherry studio 前往官网https://cherry-ai.com/download下载对应操作系统的安装包 1.3 下载deepseek R1本地模型 直接前往Ollama官网 老周这里让 DeepSeek 帮我推荐使用哪个参数的模型。 run deepseek-r1:8b) 接下来可能有点慢,测你家网速的时候到了。 它不仅能调用你本地下载的模型,还可以连接各种云端模型服务,使用起来非常便捷。 1.4 设置Cherry Studio 然后在聊天界面,选择你所要对话的大模型,就可以直接对话了。 如果出现对话说明本地部署DeepSeek R1大模型成功了。如果出现404啥的说明你没有配置对API地址,检查下面这两个操作是否配置对了。

    67410编辑于 2025-11-20
  • 来自专栏Linux运维技术之路

    Deepseek大模型本地化安装部署

    本地部署基于 Ollama 的 DeepSeek 模型,可以按照以下步骤操作。Ollama 是一个用于本地运行大型语言模型(LLM)的工具,支持多种模型,包括 DeepSeek。 一. 运行以下命令安装 Ollama: brew install ollama 或者这下载文件(https://ollama.com/download/Ollama-darwin.zip),本地安装 Linux 使用以下命令下载 DeepSeek 模型: ollama pull deepseek-r1:1.5b 如果 DeepSeek 不在默认模型列表中,可以手动指定模型文件的路径或 URL。 3. 运行 DeepSeek 模型 下载完成后,可以通过以下命令运行 DeepSeek 模型: ollama run deepseek-r1:1.5b 运行后,Ollama 会启动一个交互式终端,您可以直接与 通过 API 调用 DeepSeek 模型 Ollama 提供了一个本地 API,可以通过 HTTP 请求与模型交互。 启动 API 服务 1.

    1.1K10编辑于 2025-02-06
  • 来自专栏AI大流行时代

    Ollama系列:轻松3步本地部署deepseek

    本文主要介绍如何通过ollama快速部署deepseek、qwq、llama3、gemma3等大模型,网速好的小伙伴10分钟就能搞定。让你摆脱GPU焦虑,在普通电脑上面玩转大模型。 ollama run deepseek-r1:1.5b下载完成后,ollama会为我们运行刚下载的大模型。下面是我运行成功的截图:第三步:使用大模型恭喜你已经在本地成功安装了第一个私有大模型。 Ollama 是一款开源工具,能让你在个人电脑上本地运行各种大语言模型(如 DeepSeek、QwQ等)。简单说,它像是一个“离线版DeepSeek”,无需联网就能用AI聊天、写代码或处理文档。 总结本文介绍了如何使用ollama本地部署DeepSeek等大模型,通过干货分享了ollama常用的指令,以及如何获取更多大模型。但是我们目前仍然只是在命令行使用大模型,非常的不友好。 下一章我们将介绍如何摆脱命令行的束缚,将ollama集成到本地的AI工具中,实现聊天、自定义智能体等功能。

    99710编辑于 2025-03-15
  • 来自专栏清羽飞扬

    windows本地部署DeepSeek-R1模型

    这一系列事件让我对deepseek产生了浓厚的兴趣,决定亲自尝试将其部署本地,体验一下这个强大的AI模型。 出乎意料的是,部署过程异常简单。 下面,我将与大家分享在Windows系统上部署deepseek的全过程。为了让大家能够更方便地使用这个模型,我还在网上搜寻并筛选出来了四五款本地使用的ollama可视化工具,一并分享给大家。 好的,下面是一个更加官方且规范的版本: 前期要求 硬件要求 在本地部署DeepSeek-R1模型之前,请确保你的电脑的硬件符合以下要求: 处理器:支持x86_64架构的Intel或AMD处理器。 部署教程 安装Ollama 首先我们需要安装Ollama,Ollama是一个简便的本地机器学习模型部署工具,专为简化大规模模型的运行而设计。 它支持在Windows和Linux等操作系统上部署深度学习模型,并且不依赖Python或其他复杂的框架,能够快速在本地环境中进行推理,使得模型能够高效利用本地硬件资源,适合需要快速部署和低配置环境的用户

    1.6K10编辑于 2025-02-09
  • 来自专栏全栈开发日记

    本地部署DeepSeek-R1大模型

    本文手把手教你部署DeepSeek模型,并通过本地API实现对话、编程、数据分析,小白也能秒变AI玩家! 一、准备工作:安装Ollama Ollama是一个轻量级工具,支持在本地一键运行大模型(如Llama、DeepSeek等),无需复杂配置。 1. 二、一键部署DeepSeek模型 Ollama内置了主流模型库,直接通过命令行拉取即可。 三、本地API调用 Ollama默认开启本地API服务(端口11434),可直接通过HTTP调用。 方法1. • 回复速度慢:关闭其他占用显存的程序,或尝试更小规模的模型(如deepseek-7b)。 通过Ollama,DeepSeek大模型的部署和调用变得前所未有的简单!

    2.5K10编辑于 2025-02-10
  • 告别部署难题!DeepSeek本地部署教程,一看就会

    那么,有没有一种方法,能让“小白”用户也能够轻松地将强大的DeepSeek模型部署到自己的电脑上呢?答案是肯定的。下面教大家将复杂的本地部署过程变为人人皆可掌握的简单任务,来了解下吧。 一、为什么要本地部署AI模型在深入了解部署方法之前,我们有必要先明确本地部署的核心优势:① 数据安全与隐私保障:而通过本地部署,所有计算都在自己的电脑上完成,数据从始至终不离开本地硬盘,从根本上杜绝了数据在传输和存储过程中被泄露的风险 二、部署工具:【DS本地部署大师】这款工具通过一系列精心设计的功能,真正实现了“一键式”的傻瓜化部署体验,让即使是不懂任何代码知识的小白也能够轻易完成部署,好了,话不多说,下面就来看看通过它如何来本地部署吧 完成上述步骤后,恭喜你已经完成了deepseek AI模型的本地部署了,并且就算没有网络,它也能够检测出设备是否已断开网络,并且提供离线模式,这样不管我们身处何环境,都能够畅用AI工具。 通过本文的介绍,相信你已经学会了如何轻松地将 DeepSeek 模型部署本地。这款工具的出现,大大降低了AI模型部署的门槛,让更多的人能够享受到AI带来的便利,感兴趣的小伙伴就去尝试下吧。

    1.5K30编辑于 2025-09-09
  • 如何在本地部署 DeepSeek R1 模型?

    DeepSeek R1模型作为一种先进的深度学习模型,能够在各种任务中展现出卓越的性能。本文将详细介绍如何在本地环境中部署DeepSeek R1模型,涵盖从环境准备、模型下载到最终运行的完整步骤。 无论你是初学者还是经验丰富的开发者,都能通过本指南顺利完成部署,充分利用DeepSeek R1的强大功能。 选择模型 前往https://ollama.com/library选择想要部署的模型,我们这里选择deepseek-r1。 如:部署8B大小的模型则执行ollama run deepseek-r1:8b ,目前ollama可用的模型有1.5b、7b、8b、14b、32b、70b、671b。 image 下载完成后,我们点击Load Model按钮,即可开始在本地加载模型。 image 加载完成后在对话框直接输入内容就可以开始使用本地大模型啦!

    1.4K10编辑于 2025-05-20
  • 来自专栏区块链

    DeepSeek-R1 的本地部署指南推荐

    區塊鏈周刊(Blockchain Weekly)介绍,DeepSeek-R1 是一款强大的人工智能模型,通过本地部署,你可以在自己的设备上运行它,获得更个性化、更安全的使用体验。 本指南将以通俗易懂的方式,一步一步地指导你完成 DeepSeek-R1 的本地部署。 一、部署前的准备工作(一)硬件要求处理器(CPU):建议使用英特尔 Core i7 及以上系列的处理器,或者 AMD 同等性能的处理器,如英特尔 Core i7 - 12700K 或 AMD Ryzen 使用venv模块创建虚拟环境:python3 - m venv deepseek - r1 - env激活虚拟环境:source deepseek - r1 - env/bin/activate完成部署后 通过以上步骤,你应该能够成功在本地部署并测试 DeepSeek - R1 模型。在部署过程中,若遇到问题,可查阅官方文档或相关技术论坛,寻求解决方案。

    86400编辑于 2025-07-15
  • DeepSeek-R1本地部署指南

    以下是本地部署 DeepSeek 系列模型(1.5B、7B、8B、14B、32B)在 Windows、macOS、Linux 三个平台的最低和推荐硬件配置指南。 4090 48GB)- RAM: 64GB- RAM: 128GB32B 模型平台最低配置推荐配置Windows- 不推荐(显存不足)- 需企业级 GPU(如 RTX 6000 Ada)macOS- 无法本地部署 模型选择:从模型列表中选择与你本地部署DeepSeek-R1 模型版本对应的选项,如果没有直接匹配项,选择支持自定义模型配置的入口。 接口地址:填写http://localhost:11434 ,这个地址是 Ollama 服务的默认接口地址,通过它 Chatbox 可以连接到本地运行的 DeepSeek-R1 模型。 image-20250205103704456通过以上步骤,你不仅可以使用 Cherry Studio 还能通过 Chatbox 与本地部署DeepSeek-R1 模型进行交互。

    1.8K10编辑于 2025-08-26
  • 【DS本地部署大师】一键搞定DeepSeek本地部署

    现在,凭借【DS本地部署大师】,一切都变得简单易行。这款软件专为简化本地AI部署流程而设计,让即使是零基础的用户,也能轻松将DeepSeek模型配置到本地电脑,下面来为大家介绍下这款部署工具。 混合模式交互,功能更全面:AI对话界面不仅支持使用本地部署DeepSeek模型,还支持接入在线模型(如DeepSeek、豆包、文心一言等),并可结合联网搜索功能,提供更灵活的AI交互体验。 【DS本地部署大师】VS 【Ollama】:两种本地部署方案对比目前市面上也存在其他的DeepSeek本地部署方案,比如Ollama。那么,它们之间对比有哪些不同呢? 【Ollama】:更适合具备一定技术基础的用户,追求更灵活的配置和更强的可扩展性,喜欢通过命令行进行操作详细操作步骤:使用【DS本地部署大师】一键部署DeepSeek以下是使用该工具来实现一键部署DeepSeek 【DS本地部署大师】以其极简的操作和卓越的性能,为我们广大用户提供了一种便捷、简单的DeepSeek本地部署方式。

    2K10编辑于 2025-08-27
领券