首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(九):模型微调之计算微调参数占比

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 本文重点介绍如何打印微调参数,以及微调参数占比计算。 二、计算微调参数占比 2.1 概述 基于LoRA进行模型微调时,需要先冻结全部参数,再指定相应的Linear层进行微调,那么如何计算全部参数,如何计算微调参数以及如何计算微调参数占全部参数的比例呢? 2.2 模型参数结构一览 这里以Qwen2为例,在微调前,对模型结构有所认知,对于QLoRA量化微调算法来说,只微调模型的线性层(Linear层),后面会看到在LoRAConfig中,仅指定了"q_proj 三、总结 本文先对Qwen2模型结构进行一览,做到心中有数,之后讲解如何编写print_trainable_parameters(model)方法,如何冻结所有参数,如何指定需要微调的参数以及计算占比,

    65910编辑于 2024-08-13
  • 来自专栏AI

    模型微调

    所有微调方式的设计差异,本质围绕「参数更新范围」「是否引入新增模块」「是否依赖提示特征」三个核心维度展开,也因此划分出四主流类别,参数高效微调(PEFT)是当前AI领域的绝对主流。 常见细分方式 微调顶层MLP层:仅更新Transformer每一层的MLP前馈网络,冻结自注意力层; 微调输出层+顶层若干层:在冻结主体模型的基础上,新增任务专属输出层(如分类头、翻译头),并微调顶层2 核心特点:参数量最少(0.1%-1%)、算力需求极低、部署无额外开销,是Transformer模型、多任务切换、两段式端到端架构的最优选择。 2. 核心特点:效果接近全量微调,是工业级模型的主流选择,参数量仍控制在5%以内。 无 Prefix Tuning/P-Tuning v2 千亿级超大规模模型、简单NLU任务 模型零样本/少样本适配 六、底层原理的核心总结 1.

    55710编辑于 2026-02-09
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(八):模型微调之LoraConfig

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 LoRA是一种用于微调大型语言模型的轻量级方法,它通过添加低秩矩阵到预训练模型的权重上来实现适应性调整,从而在不显著增加模型大小的情况下提升特定任务的性能。 target_modules: 指定模型中的哪些模块(层)将应用LoRA适应。这允许用户集中资源在对任务最相关的部分进行微调。 2.3 代码示例 这是一段LoraConfig配置Qwen2的代码,指定模型中的"q_proj"、"v_proj"等层应用LoRA,了解具体有哪些层,可以通过print(model)查看。 get_peft_model(model, config) print_trainable_parameters(model) 三、总结 本文简要介绍LoraConfig的配置参数情况,具体的机遇peft对模型进行微调后面单独开一页详细讲解

    95110编辑于 2024-08-13
  • AI模型微调企业项目实战课(完结)

    AI 模型落地核心:企业级微调实战全解析在人工智能从“技术狂欢”迈向“产业深耕”的2025年,通用模型(Foundation Models)虽然展现了惊人的泛化能力,但在垂直领域的实际应用中,往往面临着 企业级微调(Fine-tuning),正是连接通用智能与行业专有知识的桥梁,是AI模型真正落地产生商业价值的核心引擎。 一、战略定位:从“通用大脑”到“行业专家”的蜕变通用模型如同受过通识教育的博学家,博览群书却缺乏特定领域的深度经验。 结语:重塑企业智能的新范式企业级微调实战,标志着AI应用从“拿来主义”进入了“精工细作”的新时代。它不再是大厂的特权,而是每一家拥有数据资产的企业都能掌握的核心竞争力。 通过高质量的数据工程、高效的参数微调技术、严格的评估对齐体系以及稳健的工程架构,企业能够将通用模型转化为懂业务、守规矩、能进化的专属智能体。这不仅是技术的胜利,更是管理智慧与数据战略的结晶。

    16610编辑于 2026-03-19
  • 来自专栏喔家ArchiSelf

    解读模型微调

    实际上,可以使用预训练的大型语言模型进行新任务的上下文学习并进行微调。 那么,什么是上下文学习?又如何对模型进行微调呢? 1. 上下文学习与索引 自从GPT-2和GPT-3出现以来,可以发现在预训练的通用文本语料库上的生成式大型语言模型(LLM)具备了上下文学习的能力,这意味着如果我们想要执行LLM没有明确训练的特定或新任务,不需要进一步训练或微调预训练的 索引的示意图如下: 2. 基于三种特征的微调方法 上下文学习是一种有价值且用户友好的方法,适用于直接访问大型语言模型受限的情况,例如通过API或用户界面与LLM进行交互。 ” 解读TaskMatrix.AI 深度学习架构的对比分析 解读ChatGPT中的RLHF 解读Toolformer 知识图谱的5G追溯 图计算的学习与思考 AI系统中的偏差与偏见 面向AI 的数据生态系统 机器学习与微分方程的浅析 神经网络中常见的激活函数 老码农眼中的模型(LLM) 《深入浅出Embedding》随笔 机器学习系统架构的10个要素 清单管理?

    1.5K30编辑于 2023-09-02
  • AI模型算法-从模型原理剖析到训练(微调)落地实战

    AI模型算法:从原理剖析到训练微调落地实战全景指南我们正站在一个历史性的拐点上。以ChatGPT、GPT-4、Llama、文心一言等为代表的AI模型,正以前所未有的力量重塑各行各业。 然而,对于大多数企业和开发者而言,从头开始训练一个千亿级参数的模型是遥不可及的。真正的价值在于——如何深入理解其原理,并掌握对现有模型进行定制化训练(微调)的能力,让其为我所用,解决实际业务问题。 一、 核心概念:什么是模型?为什么需要微调模型:通常指基于“Transformer”架构、在海量多源数据上训练而成的、参数规模达到数十亿乃至数千亿的深度学习模型。 这使得在单张消费级GPU(如24GB的RTX 4090)上微调模型(如Llama 2-7B)成为可能,是个人开发者入门实战的首选技术。 现在,就从选择一个开源模型(如Llama 2-7B)和一个具体的任务(如构建一个IT运维知识问答机器人)开始你的模型实战之旅吧!

    92411编辑于 2025-08-28
  • AI模型算法-从模型原理剖析到训练(微调)落地实战

    这些模型不仅能够理解和生成高质量的自然语言文本,还能适应多种下游任务,极大地推动了AI技术的落地应用。然而,模型的训练和微调涉及复杂的算法、庞大的计算资源和精细的优化策略。 本文将从模型的基本原理出发,深入剖析其核心算法,并探讨如何在实际业务中进行训练和微调,最终实现AI模型的落地应用。2. 模型的核心原理2.1 预训练与微调范式模型的核心思想是“预训练+微调”(Pre-training + Fine-tuning)。 未来展望随着AI技术的演进,模型的发展趋势包括:多模态模型(如GPT-4V、PaLM-E)融合文本、图像、视频等多种模态。更高效的训练方法(如MoE架构、稀疏训练)降低计算成本。 AI民主化:开源社区(如LLaMA、Falcon)推动模型普及。6. 结论AI模型正在重塑人工智能的应用范式,从原理到落地涉及算法、数据、计算资源等多方面挑战。

    2.3K20编辑于 2025-07-07
  • 来自专栏腾讯技术工程官方号的专栏

    模型微调方法总结

    但是随着预训练语言模型越来越大,这个范式存在以下问题: ● 当我们 finetune 模型时,由于训练成本太高,不太可能重新训练所有模型参数 ● 以前的方法(论文发表于 2021 年)都或多或少有其它性能问题 如果是全参数微调,则它的参数量=W0 参数量(如果是 GPT3,则 ΔW≈175B)。从这可以看出要全参数微调语言模型,小家小户是不可能的。 目前该技术已经广泛应用于模型微调,如 Alpaca,stable diffusion+LoRA,而且能和其它参数高效微调方法有效结合,例如 State-of-the-art Parameter-Efficient 目标函数依旧是公式(2),但是语言模型的参数是固定的,只更新前缀参数。 对于 BERT 类双向语言模型采用模版(P1, x, P2, [MASK], P3),对于单向语言模型采用(P1, x, P2, [MASK]): 同时加了两个改动: 1、考虑到预训练模型本身的 embedding

    2.9K42编辑于 2023-07-26
  • 来自专栏深圳架构师同盟

    LoRA模型微调介绍

    一、微调流程二、选择微调基础模型如果我们需要进行的是监督指令微调,建议选择带-Instruct后缀的模型,关于模型命名及后缀说明如下截图:三、准备意图识别微调训练集和验证集提醒:从开源平台(如Hugging 然后看情况看模型效果,慢慢调高或者。特别是小数据集的朋友们,一开始不要用特别的学习率。例如1e-4、2e-4这种的。总的来说,小一点的学习率确实比较好拟合。也有不错的效果。 这样就能实现用小显存实现 batch size 的效果,类似于 “分期付款” 的效果。 这里建议从batch size调到2开始,甚至可以从1开始。5、LoRA 秩(LoRA rank)LoRA(低秩适应)中的秩(Rank)是决定模型微调时参数更新 “表达能力” 的关键参数。 五、模型微调后验证通过预留的10%的微调数据集用做训练后的模型验证集。模型验证数据集中可以加上对应训练时的提示词,如:你是一个意图识别专家,可以根据用户的问题识别出意图,并返回对应的函数调用和参数。

    44910编辑于 2026-01-21
  • 来自专栏AI理论与前沿

    对于模型,到底微调还是不微调

    调整开源语言模型(LLM)的系列博客的第二篇文章。本文讨论:“什么时候应该进行微调,什么时候应该考虑其他技术?”0 引言在 LLM 出现之前,微调通常用于小规模模型(100M – 300M 参数)。 最重要的是,大型模型微调需要更大的资源和商业硬件。下表 1 列出了在三种情况下,微调 Llama 2 7B 和 Llama 2 13B 模型的峰值 GPU 内存使用量。 QLoRA 这样的算法使得使用有限资源对模型进行微调变得更加可行。作为示例,表 1 显示了 Llama 2 7B 的三种微调模式(全微调、LoRA 和 QLoRA)的峰值 GPU 内存。 1.4 成本节约微调可以将 Llama 2 70B/GPT-4 等模型的技能提炼到较小的模型中,如 Llama 2 7B,从而在不影响质量的情况下降低成本和延迟。 我们提供三个示例:微调 LLM 以更好地使用或忽略来自检索器的上下文微调 LLM 评审模型来评估其他 LLM 的指标,如扎根性、合规性或有用性微调 LLM 来增加上下文窗口2 微调与其他领域适应技术的比较

    93100编辑于 2024-09-17
  • 模型微调】一文掌握5种模型微调的方法

    一、模型微调的基础理论在探索具体方法之前,我们首先需要建立一个清晰的认知框架,理解模型微调在整个AI模型生命周期中所扮演的角色。 模型微调究竟是什么?直观上,模型微调即是指通过输入特定领域或任务的数据,并有选择性地调整模型参数的技术过程。 (典型数据:RTX 4090训练7B模型2小时。) 四、模型微调赋能智能未来综上所述,模型微调是连接通用基座模型强大能力与具体业务需求的关键桥梁。 参数效率将进一步提升,自动化工作流将更加完善,我们期待与开发者共同推动模型技术在更多场景的落地应用,让每个人都能轻松享受模型定制带来的技术红利。PS.如何学习AI模型

    3.5K40编辑于 2025-10-23
  • 来自专栏机器学习与统计学

    微调模型,门槛低到离谱

    微调模型这件事,门槛低到什么程度了? 之前这事儿都可以做成商业模式了,数据、环境、脚本、硬件一套下来,成本极高。 Unsloth 会自动安装依赖、下载模型、开始训练。 你甚至不需要自己有 GPU,用 Google 的免费 T4 就能微调 8B 参数的模型,真正的零成本入门。 Vision RL、TTS 微调 视觉模型也能用 GRPO 做强化学习了。 门槛确实低到离谱 总的来说:如果你一直想微调模型、训自己的推理模型、或者只是想试试「把 Claude 的能力蒸馏到小模型里」,现在就是最好的时机。 DeepSeek V3+R1 满血微调工具一键启动,硬件要求降 10 倍 模型微调实战,教程 + 代码 微调一个视觉模型,手写数字识别为例,从零开始,基于 Qwen2.5,附代码!

    72510编辑于 2026-03-02
  • 来自专栏猿人谷

    语言模型微调策略

    本文章讲语言模型微调策略及基于 ChatGPT 的微调。 一.语言模型微调策略 微调是让预训练的语言模型适应特定领域任务的关键技术。根据不同的需求和资源用户可以选择全面微调或参数高效微调2.参数高效微调 论文"Scaling Down to Scale Up:A Guide to Parameter-Efficient Fine-Tuning"根据2019年2月至 2023年2月期间发表的 2.使用 CLI 命令微调 OpenAI提供了命令行工具,可以帮助我们快速处理数据集、操作文件、创建微调任务和使用模型等,下面介绍一些常用的命令行工具。 (2)主流工具一网打尽:聚焦Hugging Face、LangChain、RAG等当前最热门的模型开发框架,讲解其原理与实操方法,配合可运行的代码与实战案例,快速上手、易于应用。 (5)作者技术实力深厚,经验提炼与代码实操双助力:作者倾力总结多年AI架构实战经验,结合真实项目中的痛点问题,提供一线开发技巧与工程化思维,帮助开发者在实践中掌握模型开发的“术”与“道”。

    62510编辑于 2025-10-21
  • Qwen2模型微调入门实战(完整代码)

    Qwen2是一个开源语言模型。以Qwen2作为基座模型,通过指令微调的方式实现高准确率的文本分类,是学习语言模型微调的入门任务。 在这个任务中我们会使用Qwen2-1.5b-Instruct模型在zh_cls_fudan_news数据集上进行指令微调任务,同时使用SwanLab进行监控和可视化。 (完) Category: Sports, Politics Output:[OUTPUT]Sports """ 我们的训练任务,便是希望微调后的模型能够根据Text和Category组成的提示词,预测出正确的 import os import swanlab def dataset_jsonl_transfer(origin_path, new_path): """ 将原始数据集转换为模型微调所需数据格式的新数据集 epoch之后,微调后的qwen2的loss降低到了不错的水平——当然对于模型来说,真正的效果评估还得看主观效果。

    4.3K11编辑于 2024-06-20
  • 来自专栏数据派THU

    独家 | 何时微调语言模型

    作者:Skanda VIvek翻译:陈之炎校对:zrx 本文约3100字,建议阅读7分钟对开源的语言模型进行微调的确令人兴奋不已,相比之下,又如何微调非开源的语言模型呢? 标签:语言模型 领英(LinkedIn)账号的fork中向我提出了这样一个问题:如何微调诸如LLaMA的开源模型。 人们普遍认为,非开源的模型太贵了,1000个 token需要花费0.002美元,为什么不可以在100个样本上做一下尝试,并评估语言模型是否为特定应用程序的最佳选择。 这就是微调的作用所在。 微调LLM 在讨论微调语言模型之前,首先谈谈像BERT这样的小语言模型微调,这在语言模型出现之前很常见。 2. 微调LLM:最近从对LLaMA模型进行微调中取得的进展表明,这需要花费大约500$才能在某些领域获得类似于ChatGPT的基线性能。

    60120编辑于 2023-08-08
  • 来自专栏大模型&AIGC

    6种模型微调技术

    》(2)摘要内容微调是实际上利用大型预训练语言模型执行下游任务的首选方法。 我们将前缀微调应用于GPT-2进行表格到文本的生成,以及应用于BART进行文本摘要。 (2)摘要提示微调(Prompt Tuning),该方法仅对冻结的语言模型中的连续提示进行微调,极大地减少了训练时每个任务的存储和内存使用。 ,无需verbalizer(4) 特点在小、模型上,效果均优于P-tuning。 尽管LoRA的可训练参数较少,训练吞吐量更高,并且与适配器不同,没有额外的推理延迟,但它在RoBERTa、DeBERTa、GPT-2和GPT-3上的模型质量上仍然与微调相当或更好。

    2.6K00编辑于 2025-05-08
  • 来自专栏程序那些事

    LoRA模型微调的利器

    LoRA(Low-Rank Adaptation)是一种微调Stable Diffusion模型的训练技术。 虽然我们已经有像Dreambooth和文本反转这样的训练技术。那么LoRA有什么用呢? 像文本反转一样,你不能单独使用LoRA模型。它必须与模型检查点文件一起使用。LoRA通过对配套的模型文件进行小的修改来改变风格。 LoRA是定制AI艺术模型的绝佳方式,而不会占用太多本地存储空间。 LoRA对Stable Diffusion模型中最关键的部分进行小的修改:交叉注意力层。研究人员发现,微调这部分模型就足以实现良好的训练。 LoRA模型通过将自己的权重加到这些矩阵上来微调模型。 如果LoRA模型需要存储相同数量的权重,它们的文件怎么会更小呢?LoRA的技巧是将矩阵分解成两个更小的(低秩)矩阵。 那只有400个数字(100 x 2 + 2 x 100,如果矩阵够更大的话,LoRA模型会减少的更多。这就是为什么LoRA文件要小得多的原因。 在这个例子中,矩阵的秩是2

    5.1K21编辑于 2024-09-04
  • 来自专栏NLP/KG

    人工智能语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法

    人工智能语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法 1.SFT 监督微调 1.1 SFT 监督微调基本概念 SFT(Supervised 样例 2 BERT 模型是 Google AI 研究院提出的一种预训练模型,通过预训练 + 微调的方式于多个 NLP 下游任务达到当时最先进水平,如实体识别、文本匹配、阅读理解等。 P-tuning v2 微调方法 3.1 P-tuning v2 微调方法的相关技术 传统的微调方法需要微调整个预训练语言模型,对于语言模型微调需要大量的资源和时间,急需更加高效的微调方法。 3.3 P-tuning v2 微调方法优点 P-tuning v2 微调方法解决了 P-tuning v1 方法的缺陷,是一种参数高效的语言模型微调方法。 4.3 Freeze 微调方法的优势 大量减少了语言模型微调参数,是一种参数高效的微调方法; 由于只需微调高层特征,加快了模型的收敛,节约了微调的时间; 最大程度地保留了语言模型预训练所学习到的语言的

    10.1K66编辑于 2023-10-11
  • 来自专栏charlieroro

    2024年语言模型微调

    微调包括调节通用模型并将其调节为特定模型,它是连接通用预训练模型和特定应用的特定需求之间的桥梁,从而保证语言模型能够接近人类的预期。 用于微调语言模型的数据集必须服务于指导的目的。 完整微调会为每个训练的任务提供一个新版本模型,这些新模型和原始模型一样,因此如果你需要为多个任务进行微调的话,看会导致存储成本问题。 最新的AI产品Grok就使用了RAG技术来保证其信息的新鲜和时效性。 RAG优于微调的一点是信息管理。传统的微调将数据嵌入了模型架构中,基本上是"硬写入"的知识,可以防止被轻易篡改。 在将微调应用到RAG系统一文中就通过将二者结合来确定和改进模型中较弱的组件。 RAG和微调的对比如下: 微调最佳实践 明确定义任务 定义任务是微调语言模型的基础步骤。

    79210编辑于 2024-03-08
  • 来自专栏NLP/KG

    人工智能语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法

    人工智能语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法 1.SFT 监督微调 1.1 SFT 监督微调基本概念 SFT(Supervised type=image/png) 样例 2 BERT 模型是 Google AI 研究院提出的一种预训练模型,通过预训练 + 微调的方式于多个 NLP 下游任务达到当时最先进水平,如实体识别、文本匹配、阅读理解等 P-tuning v2 微调方法 3.1 P-tuning v2 微调方法的相关技术 传统的微调方法需要微调整个预训练语言模型,对于语言模型微调需要大量的资源和时间,急需更加高效的微调方法。 3.3 P-tuning v2 微调方法优点 P-tuning v2 微调方法解决了 P-tuning v1 方法的缺陷,是一种参数高效的语言模型微调方法。 4.3 Freeze 微调方法的优势 大量减少了语言模型微调参数,是一种参数高效的微调方法; 由于只需微调高层特征,加快了模型的收敛,节约了微调的时间; 最大程度地保留了语言模型预训练所学习到的语言的

    25.6K07编辑于 2023-07-16
领券