首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏hotarugaliの技术分享

    npm下载安装速度慢问题

    1. node 下载 electron 卡住 && node install.js 卡住 问题:都是由于访问国外网站过慢造成 解决: 配置淘宝镜像 修改 .npmrc 文件(windows C:\Users

    2K10编辑于 2022-03-17
  • 来自专栏兮动人的博客

    解决Github下载速度慢的问题

    分享两款github加速插件来解决Github资源下载速度慢的问题。 Github 增强 – 高速下载 https://greasyfork.org/zh-CN/scripts/412245 启用插件后在资源的后面出现下载节点,直接点击节点就可以直接调用下载工具下载。 Github 镜像访问,加速下载 https://greasyfork.org/zh-CN/scripts/398278

    2.7K20发布于 2021-06-11
  • 来自专栏deepseek本地部署

    ollama官网安装包下载

    主页搜索ollama,打开ollama官方主页,然后点击download 选择合适自己系统的版本,常用的就是win系统 默认安装到C盘 如果你安装到c盘以外(详细图文教学百度搜索-【语义熔炉网】) ollama 官网下载模型 进入ollama官网的Models页面,找到deepseek-r1模型,在模型型号的下拉栏里,根据你的显卡的显存大小找到适合的模型(若显存能覆盖模型大小,则能跑GPU,若不能覆盖模型大小,

    1.2K10编辑于 2025-02-12
  • 来自专栏全栈程序员必看

    GitHub下载速度慢?这个方法可以解决

    学习时,在GitHub上面下载代码的时候发现,那下载速度是真的慢! 小项目还好,要是大一点还带有很多子模块的项目,不但耽误很多时间,还会下载失败 =.= 以下来介绍另一种提高GitHub下载速度的方法。 提高Github下载速度方法的目录 一、 通过码云转接提高仓库下载速度 1.1 操作前的准备 1.2 导入远程仓库 1.2.1 导入方法一 1.2.2 导入方法二 二、 提高子模块的下载速度 2.1 操作思路 上项目的下载速度。 接下来就是相当于从码云上面克隆仓库了,这下载速度可是能达到 几MB/s 的!比直接从GitHub上面下载快得多了。

    2.8K40编辑于 2022-07-23
  • 来自专栏python3

    使用pyppeteer 下载chromium 报错 或速度慢

    一、概述 使用Reuqests-html的render函数,它会在用户目录(默认是~/.pyppeteer/)中下载一个chromium,然后用它来执行JS代码。 执行之后,会下载chromium  [W:pyppeteer.chromium_downloader] start chromium download. 二、手动下载chromium 创建一个.py 文件 粘贴以下内容 import pyppeteer.chromium_downloader print('默认版本是:{}'.format(pyppeteer '可执行文件默认路径:{}'.format(pyppeteer.chromium_downloader.chromiumExecutable.get('win64'))) print('win64平台下载链接为 将上面的复制一下,使用迅雷下载,大概有130M,几分钟就下载好了。

    2.8K30发布于 2020-10-27
  • 来自专栏jiajia_deng

    解决 VS201220132015 下载帮助文档速度慢

    用过 VS2012 以上版本的人心里肯定清楚,想通过 Help Viewer 去下载帮助文档,那速度简直无法忍受,选择几个项目一晚上甚至几天都下载不完。 一种是使用网络上其他人下载好的离线包直接安装(比较大),另外一种就是用一个 CodePlex 上提供的下载工具 Visual Studio 2012/2013/2015 Help Downloader 进行下载。 且下载速度比 Help Viewer 速度要快很多。 工具下载地址:https://vshd.codeplex.com/ 下载后选择自己 VS 的版本,然后选择语言,再点击 Load 按钮,就会加载出来所有可下载的帮助文件了。

    2.3K20发布于 2020-01-06
  • 来自专栏项目文章

    已解决下载安装Python官网安装包下载速度慢问题

    本文摘要:本文已解决下载安装Python官网安装包下载速度慢的问题。 一、Bug描述 今天有朋友私信我说在python官网下载python太慢了,怎么处理,这还不简单,直接上操作。 二、解决方案 首先我们来到Python的官网:https://www.python.org/ 选择下载对应的需要的版本python: 比方说我这里下载3.11.5(当前最新的版本) 找到对应版本情况,直接点击下载即可 此时会蹦出一个下载提示: 我们复制这个链接,即上图中红色框框的链接,然后打开迅雷下载,复制链接到迅雷即可快速下载了! 然后你就会发现下载速度特别快~ 四、相关注意事项 咱就是说如果你有百度网盘会员,也可以使用百度网盘会员不需要使用迅雷。 如果你python网站都打不开,可以找一些前辈分享的链接下载了。。

    9.3K11编辑于 2024-06-07
  • 来自专栏机器人课程与技术

    答疑:Arduino IDE配置其他开发板下载速度慢

    配置完成后,就会出现: ---- Arduino IDE配置其他开发板下载速度慢的解决方法如下: 更换下载服务器:在Arduino IDE中,打开“文件”菜单,选择“首选项”,在“附加开发板管理器网址 下载压缩包:如果开发板管理器下载速度太慢,您可以尝试下载对应的开发板压缩包,并手动将其添加到Arduino IDE中。 以上是Arduino IDE配置其他开发板下载速度慢的解决方法,希望对您有帮助。 ---- Arduino IDE配置其他开发板M5Stack下载速度慢的解决方法如下: 更换下载服务器:在Arduino IDE中,打开“文件”菜单,选择“首选项”,在“附加开发板管理器网址”中添加其他下载服务器的网址 下载压缩包:如果开发板管理器下载速度太慢,您可以尝试下载对应的开发板压缩包,并手动将其添加到Arduino IDE中。

    3.8K20编辑于 2023-08-15
  • 来自专栏从零开始学自动化测试

    jenkins学习3-Jenkins插件下载速度慢、安装失败

    前言 jenkins下载插件很慢,或者无法下载,需修改插件管理下载源地址,如果改了还是很慢需修改default.json文件里面的地址 插件下载管理 先进入 http://ip:9090/pluginManager https://www.cnblogs.com/yoyoketang/p/12115432.html过,这里的地址应该看到的是上面的地址,就不需要修改了 修改default.json 上面的地址改了之后,插件下载还是会很慢 29 16:47 hudson.tools.JDKInstaller [root@VM_0_2_centos updates]# vi default.json 使用vi编辑文件,如下,替换所有插件下载

    7.1K10发布于 2020-01-02
  • 来自专栏开源项目搭建

    Ollama模型导入指南,从HuggingFace下载模型轻松上手

    Ollama模型导入指南,从HuggingFace下载模型轻松上手大家好,我是星哥,上一篇文章星哥介绍了本地部署DeepSeek的方法:《简单3步部署本地国产DeepSeek大模型》。 今天来讲不从Ollama官网下载模型的方法,而是从HuggingFace下载,再导入模型。 一、安装ollama参照 https://mp.weixin.qq.com/s/kJ7JCgFUNKWtPtp8r5mR_A 这篇文章安装ollama1.查看ollama版本ollama -vollama version is 0.5.72.下载模型由于文件比较大,下载模型的时间花费比较长,关注'星哥说事',回复 'HuggingFace-llama3' 获得网盘下载地址。 Ollama可以直接下载内置的几种模型,但选择有限。我们更希望从HuggingFace下载以便方便地评估各种模型,所以,这里我们并不从Ollama直接下载,而是从HuggingFace下载

    22.8K11编辑于 2025-02-07
  • 来自专栏开元说说

    CDN系列学习文章(九)——如何分析下载速度慢

    用户反馈CDN下载速度慢,也是CDN业务最常见的一类问题。本文主要介绍,遇到这种情况,怎么去分析和看待这类问题。随着基础网络不断升级,CDN服务厂家不断迭代优化产品,提速是义不容辞的责任。 一般下载速度慢现象都不会全区域出现,因为业务接入CDN都经过测试。一般部分区域或者单用户反馈业务下载数据较慢,原因有很多种,例如用户网络,CDN节点异常或者源站异常。 因此分析下载速度慢,需要根据业务数据流分析。 用户侧与CDN节点之间速度 CDN内部速度 CDN与源站之间速度 image.png 2.怎么分析?

    3.9K104发布于 2019-06-23
  • idm下载速度慢解决办法 idm批量导入下载使用方法 idm下载速度只有几百kb

    在日常使用互联网的过程中,快速下载文件对我们来说非常重要。但是在下载的过程中,我们会遇到IDM下载慢的问题,带着这个疑问,我们开始今天的学习。 一、idm下载慢怎么回事如果我们发现IDM下载速度变慢,可能的原因有很多。 下面,我分析了一些可能造成下载慢的原因和解决方法:1、IDM没有设置最大连接数:IDM是一款多线程的下载软件,它的下载速度快,这依赖于多线程,所以设置合适的连接数,对于IDM下载速度至关重要,我们可以使用下面的方法修改 二、idm批量导入下载使用方法IDM提供了批量下载功能,允许用户一次性下载多个文件。下面是如何使用IDM执行批量下载的基本步骤:1、新建一个文本文件,将我们需要下载的文件链接写入到文本中。 4、在“导入链接至IDM”窗口,选择文件需要保存的位置,以及需要批量下载的文件,IDM软件会对选中的所有资源文件进行下载下载完成后的文件可在任务中进行查看。

    3.4K10编辑于 2024-07-19
  • 来自专栏AI工具部署开发

    ollama官网下载DeepSeek-R1实现本地部署

    一、下载DeepSeek大模型我们需要登录ollama官网(ollama.com)。 二、下载所需大模型进行本地部署打开ollama官网下载 Ollama找到我们所需要的大模型索要部署的系统。 注意:需要 Windows 10 或更高版本下载完成找到 模型栏目 下载所需大模型 ,这里我们拿DeepSeek-R1 也就是最近很火的深度探索 对于版本号下载。 本地部署Windows + R  打开运动 输入 cmd 进入  管理员控制板 Ctrl + C 复制ollama run deepseek-r1:671b这里的671B可以换成你所下载的版本 也就是上面所提到的 原文链接:ollama官网下载DeepSeek-R1实现本地部署 - 小店盟电商运营

    1K10编辑于 2025-02-11
  • 来自专栏机器学习与统计学

    Ollama,危?

    大家好,我是 Ai 学习的老章 Ollama 是咱们公众号的常客了,比较重要的几个功能升级我都写过文章介绍 Ollama 发布新 app,文档聊天,多模态支持,可在 macOS 和 Windows 上使用 Ollama 的新动作:大模型联网搜索 API、MCP 客户端集成 Ollama 可以启动云端大模型了,免费 Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 的 Shimmy 要好很多,但是 Ollama 玩了这么久也不是吃素的 1、Ollama 有更加方便的 app,随时切换本地模型甚是方便 2、Ollama 还有免费云模型可以调用呢,deepseek-v3.1 :671b-cloud都敢给 3、网络问题,它目前只能支持 HF 下载模型,国内用户不友好 4、网络搜索和 MCP 也不支持 最后再说一句,它和 ollama 一样,都适合个人用户使用,企业就别折腾了, 并发太差:不要再用 _Ollama_,不要再用 llama.cpp

    35810编辑于 2025-11-20
  • 来自专栏golang探索者

    centos7 下安装 maraidb10.2 解决下载速度慢的问题

    centos7 下安装 maraidb10.2 解决下载速度慢的问题 2017-2-19 1.centos7 自带的maraidb是 5.5.6  所以第一步是增加mariadb源。     /centos7-amd64 gpgkey=https://mirrors.ustc.edu.cn/mariadb/yum/RPM-GPG-KEY-MariaDB gpgcheck=1 用这个源下载速度会快很多

    1K10发布于 2021-10-21
  • 来自专栏.Net Core技术分享

    Ollama系列05:Ollama API 使用指南

    本文是Ollama系列教程的第5篇,在前面的4篇内容中,给大家分享了如何再本地通过Ollama运行DeepSeek等大模型,演示了chatbox、CherryStudio等UI界面中集成Ollama的服务 在今天的分享中,我将分享如何通过API来调用ollama服务,通过整合ollama API,将AI能力集成到你的私有应用中,提升你的职场价值! Ollama API Ollama 提供了一套简单好用的接口,让开发者能通过API轻松使用大语言模型。 本篇内容将使用Postman作为请求工具,和开发语言无关。 参考内容 官方API文档:https://github.com/ollama/ollama/blob/main/docs/api.md 官方兼容OpenAI文档:https://github.com /ollama/ollama/blob/main/docs/openai.md

    4.3K21编辑于 2025-03-21
  • 来自专栏nginx

    XFTP8上传速度慢下载快?全面解析与优化方案

    XFTP8上传速度慢下载快?全面解析与优化方案 引言 在使用XFTP8进行文件传输时,许多用户遇到上传速度远低于下载速度的问题。这种现象可能由多种因素引起,包括网络配置、服务器性能、软件设置等。 例如: 100M宽带:下载100Mbps(约12.5MB/s),上传可能仅20Mbps(约2.5MB/s)。 2.2 服务器端限制 2.2.1 磁盘I/O瓶颈 服务器磁盘写入速度慢会导致上传卡顿,尤其是HDD或高负载时。 2.4 网络路径问题 2.4.1 路由或防火墙策略 上传和下载可能走不同网络路径,某些节点存在限速。 2.4.2 QoS策略 企业路由器可能优先保障下载流量。

    78410编辑于 2025-11-15
  • 来自专栏后端云

    5分钟本地部署史上最强开源大模型Llama3

    LM-studio 3. ollama 其中以ollama部署最为便捷和友好,部署时间可在5分钟内完成。本篇就介绍ollama本地部署llama3模型。 step1:ollama官网(https://ollama.com/download)下载ollama,有mac,windows,linux三个版本,选择适合自己机器的版本下载并安装。 step2:命令行执行ollama run llama3 (默认是下载8b的模型,若要下载70b的,执行 ollama run llama3:70b) Llama3的最小版本8B和70B已经全面领先其他竞争对手的开源大模型 70B都可以在个人PC上跑起来,8B就是80亿参数的模型只需要8G+的显存就可以流畅跑起来,70B就是700亿参数的模型虽然宣称需要40G+的显存,经测试在个人电脑的16G的显存上也可以跑起来,就是吐字速度慢些 目前市面上的界面多如牛毛,这里以开源软件chatbox为例,https://github.com/Bin-Huang/chatbox/releases 下载安装后,进入设置,配置使用本地ollama的llama3

    9.7K10编辑于 2024-05-06
  • 来自专栏软件安装

    夸克网盘下载很慢是为什么?百度网盘下载速度慢,解决办法

    提升下载速度的方法很多,其中百度网盘的我写了不少文章,今天推荐讲讲夸克的11介绍Neat Download Manager,一款免费轻量小巧的多线程下载工具,体积仅 800 多 KB,支持网页视频音频嗅探和下载 下载地址获取点击这里获取:NDM下载器 v1.4.10 2安装方式是一款绿色无需安装,双击就直接打开了。 ,所以速度会特别快,文件大速度也会很快其实百度也是一样的方法,点击一下就下载了1920NDM浏览器插件安装完成之后,我们使用该浏览器打开某视频时,插件就会自动嗅探视频,嗅探到视频之后,可以直接点击下载! image它会把音频和视频分开下载,如果只是要听声音的话就非常不错了。 image下载音频所有音频也是都可以下的,下面看看我的下载:首先要先点击播放,所有播放的都会被记录下来,然后选择其中的一个进行下载。23

    2.6K30编辑于 2025-08-21
  • 来自专栏运维知识

    使用Ollama下载的模型文件(Model)默认存放在哪里?

    本文将详细探讨Ollama下载的模型文件存放在哪里,并提供相关的操作指南和最佳实践 使用CMD安装存放位置 以下做测试 我们采用哦llama38B模型来测试 输入命令等待安装即可 默认存放路径 C:\Users \Smqnz\.ollama\models\manifests\registry.ollama.ai 不要直接复制粘贴 我的用户名和你的不一样 你可以顺着找一找 日期还是我刚刚下载的日期 Open WebUI 下载存放位置 我们选qwen2:1.5b来做测试 等待模型拉取成功 默认存放路径 这时候我们进入 C:\Users\Smqnz\.ollama\models\manifests\registry.ollama.ai \library 不要直接复制粘贴 我的用户名和你的不一样 你可以顺着找一找 可以看到有两个文件 一个是使用CMD下载的(llama3) 另外一个是在部署的Open WebUI下载的(qwen2) 不管是哪里下载的模型都是可以调取使用的 扩展知识 关于 Ollama Ollama 是一家致力于科技创新的前沿公司,旨在通过突破性的技术解决方案改变世界。

    20.2K10编辑于 2024-06-17
领券