首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈开发日记

    本地部署DeepSeek-R1模型

    从安装到API调用全流程指南 想不依赖网络、零门槛运行AI模型?Ollama帮你轻松实现! 一、准备工作:安装Ollama Ollama是一个轻量级工具,支持在本地一键运行模型(如Llama、DeepSeek等),无需复杂配置。 1. 下载DeepSeek模型 (根据需求选择模型版本,如deepseek-r1:7b、deepseek-math-7b等) ollama pull deepseek-r1:7b 注:首次下载需等待模型文件拉取 启动模型服务 (根据需求选择模型版本,如deepseek-r1:7b、deepseek-math-7b等) ollama run deepseek-r1:7b • 看到 >>> Send a message • 回复速度慢:关闭其他占用显存的程序,或尝试更小规模的模型(如deepseek-7b)。 通过Ollama,DeepSeek模型的部署和调用变得前所未有的简单!

    2.4K10编辑于 2025-02-10
  • 来自专栏灵墨AI探索室

    快速入门 DeepSeek-R1 模型

    国内最新的神级人工智能模型已经正式发布,没错,它就是备受瞩目的DeepSeek-R1模型。今天,我们将对DeepSeek进行一个简单的了解,并探索如何快速使用和部署这个强大的工具。 ,model='deepseek-reasoner'才是DeepSeek-R1模型。 ollama run deepseek-r1 当然,你可以选择启动的模型参数。 :14bollama run deepseek-r1:32bollama run deepseek-r1:70b 参数越大,模型效果越好。 总结 总之,DeepSeek-R1模型凭借其强大的性能和开源优势,为开发者带来了前所未有的机遇。无论是通过API快速接入,还是借助Ollama在本地部署,都能轻松实现智能化升级。

    1.7K30编辑于 2025-02-04
  • 来自专栏Dance with GenAI

    图解DeepSeek-R1模型—推理型语言模型(LLM)的训练秘密

    本文目录: ●大型语言模型(LLM)训练方式回顾 ●DeepSeek-R1 训练配方 ●1 - 长推理链监督式微调(SFT)数据 ●2 - 一个中期高质量推理 LLM(但在非推理任务上表现较差)。 ●DeepSeek-R1 训练配方 DeepSeek-R1 遵循这一通用配方。第一步的详细信息来自之前关于 DeepSeek-V3 模型的论文。 冷启动:与 DeepSeek-R1-Zero 不同,为了防止从基础模型开始的 RL 训练的早期不稳定冷启动阶段,对于 DeepSeek-R1,我们构建并收集了一小部分长推理链数据,以微调模型作为初始 RL ●模型架构 与 GPT2 和 GPT 3 问世之初的模型一样,DeepSeek-R1 是一堆 Transformer 解码器块。它由 61 个这样的块组成。 》 至此,你应该已经掌握了围绕 DeepSeek-R1 模型的主要训练方法

    1.5K20编辑于 2025-02-07
  • 来自专栏山河已无恙

    如何高效使用DeepSeek-R1:推理模型调优指南

    ^_^ 如何高效使用DeepSeek-R1:推理模型提示工程调优指南 LLM 中 DeepSeek-R1 与传统非推理模型的交互方式存在本质差异。 但与通用模型不同,推理型模型需要特殊的交互策略,博文内容列举几个常见的优化手段,帮助开发者构建高效的交互范式。 Python函数实现Web服务器访问日志的异常检测功能,要求包含时间戳解析模块" 这一点和传统的 LLM 区别很大,传统的提示词模板中一般包含(不是必须包含)以下3个元素: 明确的指令:这些指令可以指导语言模型理解用户的需求 ,并按照特定的方式进行回应,比如 你是一个技术博主 少量示例: 这些示例可以帮助语言模型更好地理解任务,并生成更准确的响应,{Q:分布式锁实现方式有哪些? 用户输人:用户的输人可以直接引导语言模型生成特定的答案,用户输入的问题 {QUESTION} 高级交互 数学推理增强模式 要求:请通过逐步推导证明勾股定理,并将最终答案用Latex公式框起 示例响应:

    93110编辑于 2025-03-04
  • 来自专栏AI粉嫩特攻队

    在windows主机本地快速部署使用deepseek-r1模型

    简介 Ollama(用于下载和启动模型) Ollama 专注于本地大型语言模型(LLM)的快速、极简安装和使用,例如 LLaMA 3.3 和 DeepSeek-R1。 由于模型的文件都非常,比如我们将要部署的模型文件大小就为9G左右,所以建议选择的路径所在的磁盘空间要比较大一些。 5.上述过程完成后,打开powershell命令行工具,执行如下命令下载deepseek-r1:14b模型模型文件较大,需要等待一定时间。 run deepseek-r1:14b 该命令会启动 DeepSeek-R1 模型,并启动一个 REPL(交互式终端),你可以接着在命令行直接输入问题,模型会根据问题生成回答。 (可能是因为本地提前启动了ollama,毕竟open webui以前叫ollama webui嘛~) 使用Open WebUI 向指定模型提问 笔者是24g显存的显卡,所以部署的是32b的deepseek-r1

    96210编辑于 2025-05-15
  • 来自专栏人工智能应用

    如何在电脑上部署DeepSeek-r1模型来使用

    DeepSeek作为国产AI模型之光,为什么得到国内外超2千万用户的认可,因为它对GPU要求配置低,大部分电脑都支持独立部署使用,且DeepSeek能力卓越,在推理能力、数学、代码和语音处理方面直逼ChatGPT4.0 本期小白教程,轻松给你电脑安装上DeepSeek-r1模型,在自己的电脑上使用DeepSeek-r1,反应很快还免费。 ollama安装好了 第2步:运行DeepSeek模型 进入 ollama 的 deepseek-r1 介绍页面 根据自己的硬件情况,选择一个合适的版本,复制命令到cmd运行即可(建议32b及以上) 复制 可以重复运行ollama run deepseek-r1:32b  命令去下载。 运行完命令可在控制台直接对话,如下图(Windows),linux同样的命令: 这样你可以在自己本地的电脑上独立使用DeepSeek-r1模型了。

    89710编辑于 2025-02-07
  • 来自专栏深度学习和计算机视觉

    最新「模型简史」整理!从Transformer(2017)到DeepSeek-R1(2025)

    「系统1」与「系统2」思维 7.1 OpenAI-o1:推理能力的一飞跃(2024) 2024年9月12日,OpenAI发布的o1-preview标志着人工智能能力的重大飞跃,尤其是在解决复杂推理任务 成本高效的推理模型DeepSeek-R1 (2025) LLMs通常需要极其庞大的计算资源来进行训练和推理。 这些模型使用原始DeepSeek-R1生成的合成数据进行微调,确保在推理任务中表现出色,同时足够轻量化以便本地部署。 DeepSeek 蒸馏DeepSeek模型 DeepSeek-R1在各种基准测试中表现出竞争力,包括数学、编码、常识和写作。 DeepSeek-R1 (2025):代表了成本效率的一飞跃,DeepSeek-R1利用专家混合架构(MoE)和优化算法,与许多美国模型相比,运营成本降低了多达50倍。

    4.3K10编辑于 2025-03-06
  • 来自专栏腾讯云原生团队

    在 TKE 上部署 AI 模型(以 DeepSeek-R1 为例)

    概述 本文介绍如何在 TKE 上部署 AI 模型,以 DeepSeek-R1 为例,使用 Ollama 或 vLLM 运行模型并暴露 API,然后使用 OpenWebUI 提供交互界面。 ,可以看成是模型领域的 Docker,可以下载所需的模型并暴露 Ollama API,极大的简化了模型的部署。 vLLM 与 Ollama 类似,也是一个运行模型的工具,但它针对推理做了很多优化,提高了模型的运行效率和性能,使得在资源有限的情况下也能高效运行语言模型,另外,它提供兼容 OpenAI 的 API AI 模型数据如何存储? vLLM 的镜像执行一个脚本去下载我们需要的 AI 模型,本例中下载的是 DeepSeek-R1模型,修改 LLM_MODEL 以替换语言模型

    1.2K10编辑于 2025-02-18
  • 来自专栏小陈运维

    使用 HAI 一键上云部署 Deepseek-R1 模型

    背景DeepSeek-R1 是中国人工智能初创企业 DeepSeek 推出的一款以“推理”能力为核心的开源语言模型。 Ollama是一个开源的模型管理工具,提供了丰富的功能,包括模型的训练、部署、监控等。我这里选择了俩张 GPU 卡的环境。选好之后点击“立即购买”即可。 运行其他参数的 DeepSeek可以通过这些命令运行不同参数的模型环境。 run deepseek-r1:7b# 8B Llama DeepSeek R1# 所需空间大约 4.9Gollama run deepseek-r1:8b# 14B Qwen DeepSeek R1 deepseek-r1:671b使用社区模型腾讯云的 HAI 自带了很多模型,也可以在“社区应用”中选择 DeepSeek 模型,这样即可开箱即用。

    96250编辑于 2025-02-07
  • 免费使用DeepSeek-R1模型???

    我们可以使用硅基流动作为临时通道,用户可通过该平台稳定调用DeepSeek R1模型。 我这里不演示了) 进入软件点击左下角设置,模型选择硅基流动填入秘钥 点击下方管理添加DeepSeek-R1模型,这样就配置完成了 我们来用这个24点扑克游戏题验证一下是不是真正的DeepSeek-R1模型

    30110编辑于 2025-07-14
  • 来自专栏自然语言处理

    【HuggingFace项目】:Open-R1 - DeepSeek-R1 模型开源复现计划

    项目链接:https://github.com/huggingface/open-r1 概述 Open-R1 是由 HuggingFace 发布的一个完全开放的项目,旨在通过三个主要步骤复现 DeepSeek-R1 这个项目的目标是让更多人能够理解和使用 DeepSeek-R1 的技术方案,从而推动模型技术的发展和应用。 项目步骤 知识蒸馏:通过从 DeepSeek-R1 中提取高质量的推理语料,复现 R1-Distill 模型。 支持从蒸馏模型DeepSeek-R1 生成数据。 这不仅为研究人员提供了宝贵的技术参考,也为模型的普及和应用奠定了坚实的基础。

    94500编辑于 2025-01-27
  • 来自专栏机器学习与统计学

    模型解决机器学习问题,实测,DeepSeek-R1 排名第9

    结果 该图提供了多个指标下模型性能的全面总结,适用于所有包含任务都有结果的模型。'跨任务平均准确率'列展示了整体平均准确率(粗体数字),它是每个任务的平均最大准确率的平均值。 我们还在这里展示了每个模型在这六个任务上的每次运行结果,以更好地了解每个模型在每个任务上的性能差异,以及这些任务是如何逐渐饱和的。 来自“形状(简单)”任务的示例数据。 在这个任务中,模型需要找到一种方法来编码数据,使得这种编码对点的排列变化具有不变性。形状上的点分布差异很大,因此模型需要结合来自多个点的信息来做出一个好的预测。 虽然大多数模型通常只能略好于随机猜测,但最好的模型却能持续表现更好,而且我们几乎达到了90%的最佳得分。 来自“图像块洗牌(简单)”任务的示例数据。 搭建完美的写作环境:工具篇(12 章)图解机器学习 - 中文版(72 张 PNG)ChatGPT 、模型系列研究报告(50 个 PDF)108页PDF小册子:搭建机器学习开发环境及Python基础 116

    22210编辑于 2025-07-21
  • 来自专栏大语言模型

    DeepSeek-R1技术突破:纯RL训练竟能激发模型反思能力?

    欢迎关注评论私信交流~在AI领域,模型的推理能力一直是研究热点。 2025年初,DeepSeek团队发布的R1模型带来了一项令人惊讶的发现:仅通过强化学习(RL)训练,无需监督微调(SFT),就能让模型自发产生带有反思的思维链(long CoT)。 从OpenAI o1到DeepSeek-R1的认知转变最初,业界普遍认为像OpenAI o1这样的先进模型需要将推理时扩展(Inference/test-time scaling)和强化学习作为两个独立模块 研究团队仅通过以下简单设置:就观察到了模型行为的惊人进化:随着训练步数增加,回答长度自然增长在某个训练阶段自发出现自我评估行为无需人工标注数据,就能产生结构化推理过程DeepSeek-R1的双阶段训练策略基于 这一发现不仅为模型训练提供了新思路,也引发了关于"模型自发能力涌现"的深层思考。未来,结合RL与推理时扩展的混合方法,可能会成为模型发展的主流方向。

    30410编辑于 2025-07-10
  • 来自专栏自然语言处理

    语言模型简史:从Transformer(2017)到DeepSeek-R1(2025)的进化之路

    2025年初,中国推出了具有开创性且高性价比的「大型语言模型」(Large Language Model — LLM)DeepSeek-R1,引发了AI的巨大变革。 「系统1」与「系统2」思维 7.1 OpenAI-o1:推理能力的一飞跃(2024) OpenAI于2024年12月发布的o1模型旨在提高AI的推理能力,特别是在代码生成和调试等复杂任务上表现出色 成本高效的推理模型DeepSeek-R1 (2025) LLMs通常需要极其庞大的计算资源来进行训练和推理。 这些模型使用原始DeepSeek-R1生成的合成数据进行微调,确保在推理任务中表现出色,同时足够轻量化以便本地部署。 DeepSeek-R1 (2025):代表了成本效率的一飞跃,DeepSeek-R1利用专家混合架构(MoE)和优化算法,与许多美国模型相比,运营成本降低了多达50倍。

    3.2K10编辑于 2025-02-17
  • 来自专栏码农编程进阶笔记

    什么是DeepSeek-R1蒸馏模型

    您可以在下面的帖子中了解整个过程: 什么是DeepSeek-R1蒸馏模型DeepSeek-R1蒸馏模型是通过蒸馏过程创建的较大DeepSeek-R 1模型的更小、更高效的版本。 由于DeepSeek-R1模型的尺寸巨大,即671B个参数,它不可能在消费级设备上运行,因此是蒸馏模型。 蒸馏模型旨在保留DeepSeek-R1发现的强大推理模式,即使它们的参数较少。 5.蒸馏模型的优点: 效率:蒸馏模型比原始DeepSeek-R1更小,计算效率更高,使其更容易在资源受限的环境中部署。 如何使用DeepSeek-R1蒸馏模型

    96100编辑于 2025-04-26
  • 来自专栏清羽飞扬

    windows本地部署DeepSeek-R1模型

    好的,下面是一个更加官方且规范的版本: 前期要求 硬件要求 在本地部署DeepSeek-R1模型之前,请确保你的电脑的硬件符合以下要求: 处理器:支持x86_64架构的Intel或AMD处理器。 个人要求 为确保能够顺利完成DeepSeek-R1模型的部署,建议具备以下个人技能: 命令行基础:能够理解并处理命令行中的错误信息,具备基本的调试能力,能够定位并解决常见的配置问题。 首先拉取deepseek的模型,有如下几种选择,请按照电脑要求自行选择: ollama pull deepseek-r1:1.5b # 轻量化选择 ollama pull deepseek-r1: of reasoning models with comparable performance to OpenAI-o1 等待一段时间,模型拉取成功后,就可以开始跑了,通过以下命令,这里以deepseek-r1 对于需要快速响应、低延迟的应用场景,deepseek-r1:7b无疑是一个理想的选择。 随着技术的不断发展,相信会有更多的开发者探索并扩展其应用场景,创新出更多有趣且实用的玩法。

    1.6K10编辑于 2025-02-09
  • 来自专栏灵墨AI探索室

    腾讯云 TI 平台部署与调用DeepSeek-R1模型的实战指南

    今天我们将继续探讨如何部署一个私有化的 DeepSeek-R1 模型,具体的部署过程我们将利用腾讯云的 TI 平台进行操作。 当前,腾讯云 TI 平台为用户提供了免费体验的满血版 DeepSeek-R1 模型,同时该平台还提供了开放的 API 接口服务,用户可以方便地将其接入到自己的平台中,进行定制化使用。 接下来,我们将深入讲解如何快速实现 DeepSeek-R1 模型的私有化部署,帮助大家更高效地掌握整个流程,确保能够顺利地将这一先进技术应用到自己的实际场景中。 需要注意的是,算力收费与所选模型的大小并不直接相关,因此你完全可以选择直接部署性能最强的完整版DeepSeek-R1模型,以获得更强大的计算能力和更高的性能表现。 总结通过本次讨论,我们详细介绍了如何利用腾讯云的 TI 平台完成 DeepSeek-R1 模型的私有化部署。

    1K20编辑于 2025-02-05
  • DeepSeek-R1超高幻觉率解析:为何模型总“胡说八道”?

    在Vectara HHEM人工智能幻觉测试(行业权威测试,通过检测语言模型生成内容是否与原始证据一致,从而评估模型的幻觉率,帮助优化和选择模型)中,DeepSeek-R1显示出14.3%的幻觉率。 在博主Levy Rozman(拥有600万粉丝的美国国际象棋网红)组织的一次并不严谨的模型国际象棋的对弈中,Deepseek“作弊”次数要远多于ChatGPT: 比如,没走几步棋,DeepSeek-R1 就主动送了一个小兵给对手; 到了后期,DeepSeek-R1告诉ChatGPT国际象棋规则更新了,并使用小兵吃掉了ChatGPT的皇后,这一举动让ChatGPT措手不及; 最终,DeepSeek-R1还给 腾讯科技邀约出门问问模型团队前工程副总裁李维博士,详细梳理了与模型幻觉的相关问题,带你一文读懂: 图:李维 出门问问模型团队前工程副总裁、Netbase前首席科学家 模型为什么会“产生幻觉”? 另外,DeepSeek-R1在文科类任务的强化学习训练过程中,可能对模型的创造性给予了更多的奖励,导致模型在生成内容时更具创造性,也更容易偏离事实。

    92410编辑于 2025-02-13
  • 来自专栏IT技术分享社区

    模型实战:基于腾讯云HAI服务轻松部署 DeepSeek-R1图文教程

    近期在AI领域最火的莫过于DeepSeek模型DeepSeek-R1 已发布并开源,性能直接对标 OpenAl o1 正式版。 作为一名AI爱好者来说还是希望能够亲自体验一下DeepSeek-R1的真实效果。 正好腾讯云HAI服务提供了非常友好的方式,仅仅需要三分钟就可以轻松部署DeepSeek-R1,今天就来给大家分享部署的过程,每一步都有图文,感兴趣的朋友也可以自己体验一下! 控制台主页面如下:这里我们需要切换到【社区应用】标签页就可以找到DeepSeek-R1模型了。 三、总结以上是基于基于腾讯云HAI服务轻松部署 DeepSeek-R1模型的教程,整体部署还是非常流畅的,感兴趣的朋友可以亲自动手体验一下!

    74650编辑于 2025-02-05
  • 来自专栏Dance with GenAI

    DeepSeek-R1模型一键部署在腾讯云 TI 平台,告别卡顿

    现在DeepSeek-R1模型太火爆了,导致官网服务器压力太大,经常无法使用。由于DeepSeek-R1模型是开源的,很多第三方平台已经支持部署DeepSeek-R1模型。 在这些平台上,可以建立独属于自己的DeepSeek-R1模型服务,想怎么用就怎么用,再也不会卡顿。腾讯云 TI 平台目前已经支持DeepSeek-R1模型,部署完成后体验很不错。 在模型广场可以看到DeepSeek 系列模型的介绍:DeepSeek系列模型是一组全新的大型语言模型,旨在提供高效、灵活且强大的自然语言处理能力。 需要多机分布式部署,2节点H20*8卡资源,其他蒸馏模型所需资源详见模型推理所需资源指南在模型介绍的右边,可以进行DeepSeek模型体验,进行对话。 充值完成后,点击:启动服务,就可以稳定使用独属于自己的Deepseek模型服务了。

    1.7K31编辑于 2025-02-04
领券