首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏软件测试学习

    Ollama搭配DeepSeek本地部署全攻略

    在人工智能领域,大型语言模型(LLMs)正变得越来越普及,而将这些模型部署本地设备上,不仅可以提高数据隐私性,还能降低对网络的依赖。 Ollama 是一个开源工具,能够帮助用户轻松地在本地运行各种大型语言模型,包括 DeepSeek。本文将详细介绍如何通过 Ollama本地安装和使用 DeepSeek 模型。 一、Ollama 简介 Ollama 是一个开源的本地大模型部署工具,旨在让用户能够在个人电脑上运行各种开源大型语言模型(如 Llama、DeepSeek 等)。 通过 Ollama,开发者、研究者和爱好者可以快速部署私有化 AI 应用,无需依赖云端服务,同时享受高效、安全的本地 AI 体验。 通过 Ollama本地使用 DeepSeek 模型,不仅可以提供更高的隐私性和灵活性,还能让用户在没有互联网连接的情况下使用 AI 大模型。

    7K10编辑于 2025-02-18
  • 来自专栏AI大流行时代

    Ollama系列:轻松3步本地部署deepseek

    本文主要介绍如何通过ollama快速部署deepseek、qwq、llama3、gemma3等大模型,网速好的小伙伴10分钟就能搞定。让你摆脱GPU焦虑,在普通电脑上面玩转大模型。 ollama run deepseek-r1:1.5b下载完成后,ollama会为我们运行刚下载的大模型。下面是我运行成功的截图:第三步:使用大模型恭喜你已经在本地成功安装了第一个私有大模型。 内容讲解(干货)ollama是什么?Ollama 是一款开源工具,能让你在个人电脑上本地运行各种大语言模型(如 DeepSeek、QwQ等)。 总结本文介绍了如何使用ollama本地部署DeepSeek等大模型,通过干货分享了ollama常用的指令,以及如何获取更多大模型。但是我们目前仍然只是在命令行使用大模型,非常的不友好。 下一章我们将介绍如何摆脱命令行的束缚,将ollama集成到本地的AI工具中,实现聊天、自定义智能体等功能。

    1K10编辑于 2025-03-15
  • 来自专栏小胡的技术分享

    玩转deepseek本地部署ollama融合其他大模型

    引言部署完成本地版本的deepseek后很多兄弟们想去接入其他厂商的大模型进行微调和测试下面我就用宝塔Linux面板的快速搭建来示范如何接入大模型。 正文1.安装宝塔面板1.1在应用大模型前需要先安装一下宝塔面板——面板后台docker——“AI大模型”选项1.2来到“AI大模型”选项界面找到“DeepSeek-R1”选项注意:只有这个可以一键完成部署和拉去镜像哈 3.整理部分大模型的官方网站腾讯云版本deepseek:https://cloud.tencent.com/document/product/1772/115963kimi大模型:https://platform.moonshot.cndeepseek 官网:https://www.deepseek.com等等,市面上的各大厂商的都是可以通过此方式接入。

    87910编辑于 2025-02-12
  • 来自专栏AI工具部署开发

    ollama官网下载DeepSeek-R1实现本地部署

    最近Deepseek被一再的推上热搜,那么我们今天来一起研究下利用OllaMa官网开源的DeepSeek-R1本地部署的整个流程以及所需要的工具。 他们都是可以利用本文的方法进行部署。二、下载所需大模型进行本地部署打开ollama官网下载 Ollama找到我们所需要的大模型索要部署的系统。 本地部署Windows + R  打开运动 输入 cmd 进入  管理员控制板 Ctrl + C 复制ollama run deepseek-r1:671b这里的671B可以换成你所下载的版本 也就是上面所提到的 本地部署 进入找到 ollma API 确认 其他不要修改 开始对话。 原文链接:ollama官网下载DeepSeek-R1实现本地部署 - 小店盟电商运营

    1K10编辑于 2025-02-11
  • DeepSeek实践-5分钟快速腾讯云部Ollama部署本地部署

    Ollama部署DeepSeek; ChatBox集成DeepSeek; CodeArts IDE集成DeepSeek部署DeepSeek步骤 1、安装Ollama Ollama 是一款功能强大的开源工具,专为在本地运行、部署和管理大型语言模型(LLMs)而设计。 本地部署 成功在本地部署DeepSeek AI助手后,您将能够在个人电脑上畅享其强大功能,无需担忧网络延迟和隐私泄露问题。 定期重启服务: 如果您使用的是Ollama本地部署的AI服务,建议您定期重启服务,以释放内存并清除缓存,确保AI始终保持最佳运行状态。 也可接入本地 Ollama 部署Deepseek 大模型,结合腾讯云AI代码助手和 DeepSeek ,开发者可实现更加强大、高效、安全的 AI 编程体验。

    2.4K21编辑于 2025-03-19
  • 来自专栏AI大模型

    别被 “一键部署” 骗了!使用Ollama本地部署DeepSeek 避坑指南

    最近最火的莫过于DeepSeek,现在网上关于 AI 模型部署的文章一抓一大把,动不动就是 “一键部署,轻松上手”、“30 分钟搭好一个本地能跑起来的大模型”。 可现实是,当你真上手用 Ollama 搭建 DeepSeek 模型时,那简直就是踩坑大冒险!今天咱就来好好唠唠那些坑,帮你顺利搭建属于自己的 DeepSeekOllama 是什么 Ollama 则是咱们搭建模型的得力助手,它就像是一个智能的建筑工人,能够帮助我们快速、轻松地部署各种大型语言模型。 通过本地命令行可以正常调用接口,但当尝试从外部电脑访问服务器上的 DeepSeek 接口时,始终无法成功。 接下来在chatbox 中设置Ollama 的地址即可。 通过以上几步,我们就可以使用Ollama本地部署DeepSeek大模型了。

    3.6K10编辑于 2025-04-04
  • 来自专栏小陈运维

    使用Ollama部署deepseek大模型

    使用Ollama部署deepseek大模型 前置条件 使用英伟达显卡下载cuda驱动 https://developer.nvidia.com/cuda-downloads Ollama Ollama # 1.5B Qwen DeepSeek R1 # 所需空间大约 1.1G ollama run deepseek-r1:1.5b # 7B Qwen DeepSeek R1 # 所需空间大约 4.7G ollama run deepseek-r1:7b # 8B Llama DeepSeek R1 # 所需空间大约 4.9G ollama run deepseek-r1:8b # 14B Qwen DeepSeek R1 # 所需空间大约 9G ollama run deepseek-r1:14b # 32B Qwen DeepSeek R1 # 所需空间大约 20G ollama run deepseek-r1:32b # 70B Llama DeepSeek R1 # 所需空间大约 43G ollama run deepseek-r1:70b # 671B Llama DeepSeek

    2.7K20编辑于 2025-02-04
  • 来自专栏C++

    DeepSeekDeepSeek概述 | 本地部署deepseek

    1 -> 概述 DeepSeek是由中国的深度求索公司开发的一系列人工智能模型,以其高效的性能和低成本的训练而受到关注。 2 -> 本地部署deepseek 2.1 -> 安装ollama ollama官网 点击Download下载 选择对应的操作系统,本次以Windows操作系统为例 点击Download for Windows 2.2 -> 部署deepseek-r1模型 回到ollama官网点击左上角的Models进入如下界面。 输入命令/bye可以退出对话 输入命令ollama list可以查看下载好的模型 输入ollama run + 对应的模型就可以进入对话 这里输入ollama run deepseek-r1:latest 这样本地部署deepseek就算完成啦

    3.5K32编辑于 2025-02-08
  • 来自专栏小陈运维

    使用Ollama部署deepseek大模型

    使用Ollama部署deepseek大模型前置条件使用英伟达显卡下载cuda驱动https://developer.nvidia.com/cuda-downloadsOllamaOllama 官方版: /install.sh | sh当然Ollama不只是可以启动deepseek模型,也可以启动他的模型https://ollama.com/search# 模型的安装命令# 1.5B Qwen DeepSeek R1 # 所需空间大约 1.1Gollama run deepseek-r1:1.5b# 7B Qwen DeepSeek R1# 所需空间大约 4.7Gollama run deepseek-r1 :7b# 8B Llama DeepSeek R1# 所需空间大约 4.9Gollama run deepseek-r1:8b# 14B Qwen DeepSeek R1# 所需空间大约 9Gollama run deepseek-r1:14b# 32B Qwen DeepSeek R1# 所需空间大约 20Gollama run deepseek-r1:32b# 70B Llama DeepSeek

    3.4K12编辑于 2025-01-26
  • 来自专栏.Net Core技术分享

    ollama系列1:轻松3步本地部署deepseek,普通电脑可用

    本文主要介绍如何通过ollama快速部署deepseek、qwq、llama3、gemma3等大模型,网速好的小伙伴10分钟就能搞定。让你摆脱GPU焦虑,在普通电脑上面玩转大模型。 ollama run deepseek-r1:1.5b 下载完成后,ollama会为我们运行刚下载的大模型。下面是我运行成功的截图: 第三步:使用大模型 恭喜你已经在本地成功安装了第一个私有大模型。 内容讲解(干货) ollama是什么? Ollama 是一款开源工具,能让你在个人电脑上本地运行各种大语言模型(如 DeepSeek、QwQ等)。 总结 本文介绍了如何使用ollama本地部署DeepSeek等大模型,通过干货分享了ollama常用的指令,以及如何获取更多大模型。 但是我们目前仍然只是在命令行使用大模型,非常的不友好。 下一章我们将介绍如何摆脱命令行的束缚,将ollama集成到本地的AI工具中,实现聊天、自定义智能体等功能。

    53400编辑于 2025-03-16
  • 来自专栏技术汇总专栏

    基于Ollama平台的DeepSeek-R1目标检测模型本地部署与应用研究【DeepSeek保姆级本地部署教程】

    本文将详细讲解如何通过 Ollama 和 Open WebUI 在本地环境中部署 DeepSeek-R1 模型,并简要介绍 OllamaDeepSeek-R1,帮助用户快速入门并实现本地部署。 如果你想在本地部署 DeepSeek-R1 并且使用支持 2G 显卡的机器,这篇指南将帮助你顺利实现。我们将以 Ollama 为工具,逐步指导你完成部署过程。 以下是详细步骤: 安装 Ollama Ollama 是一个简单易用的工具,可以帮助我们轻松地将 DeepSeek-R1 部署本地。 通过上述步骤,你就能在本地环境中顺利部署 DeepSeek-R1 模型,并通过 Ollama 和 Open WebUI 进行交互。 总结 这篇文章详细介绍了如何在本地环境中部署和使用 DeepSeek-R1 模型,特别是利用 Ollama 工具进行安装和配置。

    4.1K13编辑于 2025-02-04
  • 来自专栏.Net Core技术分享

    Ollama本地部署大模型总结

    今天计划对之前ollama系列做个回顾,从如何部署到API使用,整理到一篇内容中,提供给大家参考。 ollama run deepseek-r1:1.5b 下载完成后,ollama会为我们运行刚下载的大模型。下面是我运行成功的截图: 第三步:使用大模型 恭喜你已经在本地成功安装了第一个私有大模型。 安装完成后打开,你会看到一个聊天窗口: 使用ollama中的大模型 我们在上一篇中在本地安装了ollamadeepseek,现在我们把它集成到刚安装的chatbox中。 和本地大模型对话 点击左侧新对话,开启新的对话。 向大模型提问试试吧 创建智能体 恭喜你已经完成了ollama和chatbox的集成,现在你的对话数据都保留在本地,绝对的安全和隐私。 点击左下角的小齿轮打开设置 在模型列表中选择ollama 点击右上角开关打开ollama API密钥空着不要填,API地址使用本地地址 点击管理,选择我们之前已经下载的deepseek r1模型 设置完成后点击左上角的聊天图标

    4.7K11编辑于 2025-03-30
  • deepseek本地部署有什么用?解锁 DeepSeek 本地部署

    DeepSeek 作为一款备受瞩目的大模型工具,其本地部署逐渐成为众多用户关注的焦点。今天,我们就来深入探讨 DeepSeek 本地部署的用途,为大家详细介绍一款助力本地部署的神器,快来看看吧。​ 一、为什么要进行 DeepSeek 本地部署DeepSeek 本地部署保障数据隐私,适配敏感行业合规需求。降低网络依赖,无网络也能稳定运行,保障实时场景业务连续。 二、DS 本地部署大师 —— 本地部署的得力助手​①一键部署,轻松上手​DS 本地部署大师它内置了 DeepSeek - R1 全系列模型(1.5B/7B/14B/32B/70B),根据智能推荐并下载适合的模型版本 ②部署完成,进入体验​选择模型后等待下载,下载完成后,软件会自动安装完成。之后,点击【立即体验】进入智能界面体验DeepSeek 本地部署效果。​ DS 本地部署大师凭借其强大的功能和便捷的操作,为用户实现 DeepSeek 本地部署提供了一站式解决方案。

    2K10编辑于 2025-08-21
  • 来自专栏机器学习

    OpenCloudOS部署OpenClaw配置本地Ollama

    上一篇内容我们在OpenCloudOS部署好了OpenClaw,但是还没有配置它的LLM,今天我们在艾克斯开发板上使用Ollama部署一个小模型。 Ollama安装通过ssh登录我们的设备输入curl-fsSLhttps://ollama.com/install.sh|sh进行下载。输入密码后等待安装完成。完成安装。 添加ollama的模型我们在ollama的官网可以看到,它们已经可以很方便的和OpenClaw进行对接了,因此我们按照官网的提示进行配置看看是否可行。

    9.1K01编辑于 2026-02-12
  • 来自专栏分享学习

    DeepSeek本地部署教程

    DeepSeek是一款强大的知识检索和问答工具,通过本地部署,用户可以更加便捷地进行知识检索和问答操作。本文将详细介绍如何在本地部署DeepSeek,以便用户能够充分利用其强大的功能。 环境要求 在本地部署DeepSeek之前,需要确保计算机满足以下环境要求: 操作系统:Linux(推荐)或Windows。 Python版本:Python 3.7及以上。 此外,还需要安装Ollama,这是运行DeepSeek模型的底层软件。 安装步骤 下载并安装Ollama 访问Ollama官网,选择适合自己操作系统的版本进行下载。 下载完成后,双击安装包进行安装。 安装过程中,请确保C盘有足够的空间,因为Ollama默认安装在C盘。 (result) 使用与调试 使用DeepSeek 在成功部署并启动DeepSeek后,可以通过API服务器或直接在Python脚本中调用模型进行推理。

    1.5K10编辑于 2025-05-18
  • 来自专栏AI前沿技术

    本地部署DeepSeek大模型 ollama+chatbox 一站式搞定!

    本地部署 Deepseek 中心思想:ollama是推理引擎,提供大模型接口服务,chatbox提供可视化界面,借用大模型能力与用户对话。 tar -zxf ollama-linux-amd64.tgz -C /usr/local 下载对应模型文件: 同样在ollama官网,model栏找到 deepseek 对应的蒸馏版本,获取下载命令 ollama run deepseek-r1:14b 在第一次运行时候,ollama 会自动的进行模型下载,时间较长。 再次调用时候,就会加载本地模型。 此时,ollama 服务就会启动了,接下来就是使用chatbox 构建可交互的界面。 2,交互界面搭建 使用chatbox 进行交互界面的搭建。 4,ollama 运行本地大模型 使用ollama 运行微调之后的大模型,是一个很现实的问题,光使用官方模型,体现不了一丁点能力。

    2.1K40编辑于 2026-01-13
  • 来自专栏IT从业者张某某

    DeepSeek从云端模型部署到应用开发-02-ollama+deepseekr1本地部署

    背景 DeepSeek现在流行度正盛,今年的机器学习就用他作为一个开端,开整。 本文是基于百度aistudio的在线课程《DeepSeek从云端模型部署到应用开发》。 DeepSeek本地部署 安装ollama ollama地址如下:https://ollama.com/ 单击download,在弹出的页面选择window,linux或mac对应版本,本文选择 32B及32B以下的模型就可以了,模型太大的化成本太高除非企业内部为了安全需要本地部署或者你自己不差钱,要不还是去官网体验满血完整版DeepSeek R1吧(目前该模型太火热,使用过程中经常会出现模型太忙请稍后访问 下载模型-通过ollamaollama官方的model中,可以看到模型的下载方式,如 ollama run deepseek-r1 可下载对应的大模型到本地 Windows系统模型模型下载到C:Users +ollama本地部署与chatbox AI的使用。

    1K00编辑于 2025-03-15
  • Ollama本地部署新版DeepSeek-R1,如何实现远程访问?

    本篇内容将手把手带你使用Ollama+Open WebUI本地部署DeepSeek-R1,并借助贝锐花生壳内网穿透,轻松实现安全远程访问! 与传统的云端部署或端口映射远程访问方式相比,贝锐花生壳内网穿透技术不仅使得远程连接更为便捷,而且能够有效防止未授权用户擅自访问本地部署Ollama,从而全方位保障 AI 资源的私密性和安全性。 一、利用Ollama一键本地部署Qwen3首先,访问Ollama官网,下载并一键安装Ollama客户端。 完成部署后,在浏览器中访问127.0.0.1:3000,设置本地管理员账号,之后就可以通过网页界面与DeepSeek-R1进行交互了! 三、利用贝锐花生壳内网穿透,实现安全远程访问如果想随时随地远程访问本地部署DeepSeek-R1,可以利用贝锐花生壳内网穿透,简单三步即可部署,轻松实现远程访问。

    2.3K30编辑于 2025-06-09
  • 来自专栏陈冠男的游戏人生

    使用ollama本地部署开源大模型

    chatGPT 刚出来没多久的时候,openai 时不时的限制使用频率,当时我想要是能本地部署一个大模型,无限制的使用该多好哇。 后来有很多团队/公司陆陆续续在 github 开源了他们自己训练的大模型,但是部署使用的操作门槛比较高,曾经试图部署过一个,报了几个错也没时间折腾就放弃了 前几天我发现了一个叫 ollama 的项目,根据介绍 ,此时就已经部署结束了 可以在:https://ollama.com/library 找到更多的模型 但是在命令行中直接交互里很多格式解析不出来,看起来怪怪的,可以使用 chatbot-ollama 这个项目部署一个 npm(直接安装 nodejs,会附带安装 npm),然后下载 chatbot-ollama 项目到本地,在文件夹中依次执行这两条命令即可: npm ci npm run dev 此时会自动打开一个 此外,你还可以配合翻译插件进行本地AI翻译,openai-translator 这个项目原本是使用在线模型的 API 进行翻译的,但目前也支持了 ollama,项目地址: https://github.com

    3K20编辑于 2024-03-05
  • 来自专栏Python与算法之美

    Ollama 本地CPU部署开源大模型

    Ollama可以在本地CPU非常方便地部署许多开源的大模型。 如 Facebook的llama3, 谷歌的gemma, 微软的phi3,阿里的qwen2 等模型。 完整支持的模型列表可以参考:https://ollama.com/library 它基于llama.cpp实现,本地CPU推理效率非常高(当然如果有GPU的话,推理效率会更高), 还可以兼容 openai ollama run qwen2 #跑qwen2模型,如果本地没有,会先下载 ollama pull llama3 #下载llama3模型到本地 ollama list #查看本地有哪些模型可用 ollama rm #删除本地的某个模型 ollama help #获取帮助 ! pip install openai ollama还支持非常热门的openai接口,简简单单,本地就mock了一个chatgpt。

    3.7K11编辑于 2024-06-26
领券