首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏NLP/KG

    告别Hugging Face模型下载难题:掌握高效下载策略,畅享无缝开发体验

    运行以下命令 可以添加 --local-dir-use-symlinks False 参数禁用文件软链接,这样下载路径下所见即所得 #以下命令都可 huggingface-cli download --resume-download Qwen/Qwen2-7B-Instruct --local-dir /www/algorithm/agent/Qwen2-7B-Instruct huggingface-cli download --resume-download agent/Qwen2-7B-Instruct --local-dir-use-symlinks False --token hf_***** #huggingface-cli download --resume-download gpt2 --local-dir gpt2 huggingface-cli download --resume-download --local-dir-use-symlinks False THUDM 部分工具下载 Gated Repo 的方法: huggingface-cli: 添加--token参数 huggingface-cli download --token hf_*** --resume-download

    3.4K50编辑于 2024-08-08
  • 来自专栏轩辕镜像

    国内 huggingface 镜像——帮助 AI 开发者快速稳定的下载模型数据集

    3.1 下载模型 huggingface-cli download --resume-download gpt2 --local-dir gpt2Copy 3.2 下载数据集 huggingface-cli download --repo-type dataset --resume-download wikitext --local-dir wikitextCopy 可以添加 --local-dir-use-symlinks 部分工具下载 Gated Repo 的方法:huggingface-cli: 添加--token参数 huggingface-cli download --token hf_*** --resume-download

    8.8K10编辑于 2024-09-29
  • 来自专栏DevOps

    【hf-mirror】HuggingFace镜像站助你实现模型自由

    3.1 下载模型 huggingface-cli download --resume-download gpt2 --local-dir gpt2Copy 3.2 下载数据集 huggingface-cli download --repo-type dataset --resume-download wikitext --local-dir wikitextCopy 可以添加 --local-dir-use-symlinks

    18.9K41编辑于 2024-04-15
  • huggingface镜像网站hf使用

    3.1 下载模型 huggingface-cli download --resume-download gpt2 --local-dir gpt2Copy 3.2 下载数据集 huggingface-cli download --repo-type dataset --resume-download wikitext --local-dir wikitextCopy 可以添加 --local-dir-use-symlinks

    4.8K21编辑于 2025-07-20
  • 来自专栏为了不折腾而去折腾的那些事

    节省时间:AI 模型靠谱下载方案汇总

    /cache --local-dir-use-symlinks=False --resume-download 比如,在上面的命令中强制的将下载目标文件夹 --local-dir 和下载使用的缓存目录 最后,添加 --resume-download 可以确保我们始终接着之前的下载进度继续,如果我们的下载进度有中断。 /cache --local-dir-use-symlinks=False --resume-download # 下载 microsoft/phi-2/model-00002-of-00002.safetensors /cache --local-dir-use-symlinks=False --resume-download 如果我们需要下载在 HuggingFace 上经过申请登记或者付费才能使用的模型,在上面的命令最后添加 其次是去掉上面命令行中的 --resume-download 分块下载,新版工具目前还不支持这个功能。 当命令执行后,我们就能使用更快的速度从 HuggingFace 上下载 AI 模型了。

    2.5K22编辑于 2024-01-09
  • 来自专栏AI工程落地

    Mixtral混合专家模型

    "https://hf-mirror.com" huggingface-cli download --exclude "*pytorch_model*" --token your_token --resume-download

    36710编辑于 2024-08-15
  • 来自专栏CSDN社区搬运

    基于丹摩智算平台部署SD3与ComfyUI进行文本生成图像

    HF_ENDPOINT=https://hf-mirror.com #下载模型 huggingface-cli download --token hf_BbwgWIQLalWXUdHgvDGPDZpnLxo --resume-download

    37010编辑于 2024-11-28
  • chatglm-6b on ubuntu 本地部署

    下载模型 cd /usr/local/app huggingface-cli download --resume-download THUDM/chatglm3-6b --local-dir chatglm3 -6b --local-dir-use-symlinks False 下载数据集 huggingface-cli download --repo-type dataset --resume-download

    41010编辑于 2024-09-23
  • 来自专栏IT杂谈学习

    丹摩智算:SD3+ComfyUI文生图部署步骤详解

    huggingface-cli download --token hf_BbwgWIQLalWXUdHgvDGPDZpnLxo --resume-download stabilityai/stable-diffusion

    85210编辑于 2024-09-26
  • 来自专栏机器学习与统计学

    大模型本地部署,小号的vLLM来了

    install git+https://github.com/GeeeekExplorer/nano-vllm.git 手动下载模型权重,使用以下命令: huggingface-cli download --resume-download

    51610编辑于 2025-11-20
  • 来自专栏一个正经的测试

    速来白嫖!免费!快手公布了AI绘画大模型!

    kolors pip install -r requirements.txt python3 setup.py install 2、模型权重下载(链接): huggingface-cli download --resume-download

    53510编辑于 2024-07-18
  • MiniCPM-V 系列模型在多模态文档 RAG 中的应用:无需OCR的高效多模态文档检索与问答系统

    这里我们从 huggingface 下载权重pip install huggingface-hubhuggingface-cli download --resume-download RhapsodyAI 这里我们从 huggingface 下载权重:huggingface-cli download --resume-download openbmb/MiniCPM-V-2_6 --local-dir MiniCPM-V

    1.7K10编辑于 2024-08-19
  • 来自专栏为了不折腾而去折腾的那些事

    使用 Docker 和 Diffusers 快速上手 Stable Video Diffusion 图生视频大模型

    HuggingFace 来下载模型和包含最新的仓库程序文件: # 安装下载工具 pip install huggingface-cli # 下载我们所需要的模型 huggingface-cli download --resume-download / 如果你在访问网络时,遇到了一些问题,可以搭配使用社区网友提供的加速镜像: HF_ENDPOINT=https://hf-mirror.com huggingface-cli download --resume-download 使用官方提供的新版本工具进行更快速度的下载: HF_ENDPOINT=https://hf-mirror.com HF_HUB_ENABLE_HF_TRANSFER=1 huggingface-cli download --resume-download

    1.6K10编辑于 2024-01-09
  • 来自专栏为了不折腾而去折腾的那些事

    本地运行“李开复”的零一万物 34B 大模型

    Nous-Capybara-34B等等如果你想快速下载可靠的模型,可以使用下面的命令:# 我们可以使用 Huggingface Cli 来下载模型huggingface-cli download --resume-download 通过社区用户搭建的减速器来下载HF_ENDPOINT=https://hf-mirror.com HF_HUB_ENABLE_HF_TRANSFER=1 huggingface-cli download --resume-download nous-capybara-34b.Q5_K_M.gguf下载模型参考上文中的说明,不难得到下载命令,如果你要下载其他的模型,可以参考并进行调整:# 比如huggingface-cli download --resume-download

    1.6K10编辑于 2023-11-26
  • 来自专栏DotNet NB && CloudNative

    AspNetCore中的文件上传与下载优化

    return File(stream, "application/octet-stream", fileName); } 支持断点续传 通过HTTP Range头实现断点续传: [HttpGet("resume-download

    64210编辑于 2025-05-12
  • 来自专栏Java技术进阶

    基于InternLM和LangChain搭建自己的知识库

    安装依赖: pip install -U huggingface_hub 然后在和 /root/data 目录下新建python文件 download_hf.py,填入以下代码: resume-download (linux环境下需要填写绝对路径) import os # 下载模型 os.system('huggingface-cli download --resume-download sentence-transformers 设置环境变量 os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com' # 下载模型 os.system('huggingface-cli download --resume-download

    1.5K10编辑于 2024-03-01
  • 来自专栏为了不折腾而去折腾的那些事

    本地运行“李开复”的零一万物 34B 大模型

    Nous-Capybara-34B[10]•等等 如果你想快速下载可靠的模型,可以使用下面的命令: # 我们可以使用 Huggingface Cli 来下载模型 huggingface-cli download --resume-download 通过社区用户搭建的减速器来下载 HF_ENDPOINT=https://hf-mirror.com HF_HUB_ENABLE_HF_TRANSFER=1 huggingface-cli download --resume-download nous-capybara-34b.Q5_K_M.gguf 下载模型参考上文中的说明,不难得到下载命令,如果你要下载其他的模型,可以参考并进行调整: # 比如 huggingface-cli download --resume-download

    1.7K10编辑于 2023-11-27
  • 来自专栏Java技术进阶

    书生·浦语大模型图文对话Demo搭建

    resume-download:断点续下 local-dir:本地存储路径。 (linux 环境下需要填写绝对路径) import os # 下载模型 os.system('huggingface-cli download --resume-download internlm/

    46510编辑于 2024-02-28
  • 来自专栏胡琦

    基于 InternLM 和 LangChain 搭建你的知识库

    import os; os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'; os.system('huggingface-cli download --resume-download

    33600编辑于 2025-05-20
  • 来自专栏AI进修生

    Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)

    有时候我们需要下载其中一个模型,就可以使用aria2c 、huggingface-cli这些命令 一个仓库下其中一种GGUF模型的多个文件批量下载: huggingface-cli download --resume-download

    21.9K12编辑于 2024-12-02
领券