引言:为什么需要模型定制与微调 ├── 2. 微调技术体系:从全参数到参数高效 ├── 3. 全参数微调:深度定制的经典路径 ├── 4. 参数高效微调:资源受限下的优化选择 ├── 5. 引言:为什么需要模型定制与微调 在2025年的AI生态系统中,通用大语言模型(LLM)如ChatGPT、LLaMA 4、Claude 4等已经展现出惊人的通用能力。 ,资源需求降至原来的5%以下 自动化:微调流程自动化工具成熟,如LLaMA-Factory、XTuner等开源框架 混合化:多种微调技术组合使用,如LoRA+RLHF的混合策略 领域化:针对特定领域的专业化微调方法不断涌现 3.1 技术原理 全参数微调的核心思想是在保持模型架构不变的情况下,使用领域特定数据对所有模型参数进行更新: 全参数微调流程: 预训练模型 → 领域数据输入 → 前向传播 → 损失计算 → 反向传播 → 行业应用与最佳实践 9.1 金融领域微调案例 某大型金融机构在2025年实施的领域微调项目: 需求:构建专业的金融分析助手,能够准确理解金融术语,分析市场趋势,生成合规报告。
领域微调的理论基础与挑战 1.1 领域微调的基本原理 领域微调是指在预训练大模型的基础上,使用特定领域的专业语料进行二次训练或微调,以使模型更好地适应特定领域的语言习惯、专业知识和任务需求。 在进行跨领域微调时,可以采用以下领域知识融合技巧: 分阶段微调策略: 先在通用数据上预训练 然后在大规模领域数据上进行领域适应 最后在特定任务数据上进行微调 领域术语增强: 医疗领域:增强对医学术语 主要内容包括: 领域微调基础:详细介绍了领域微调的基本概念、原理和流程 医疗领域微调:实现了医疗数据集构建和医疗领域微调器 法律领域微调:实现了法律数据集构建和法律领域微调器 词汇优化技术:探讨了词汇表优化的重要性和实施方法 领域对比分析:对比了医疗与法律领域微调的异同点 未来,领域微调技术有望在以下方向继续发展: 多模态领域微调:结合文本、图像等多种模态信息进行领域微调 持续学习与知识更新:实现模型在领域知识更新时的高效适应 跨领域知识融合:开发更有效的跨领域知识迁移方法 隐私保护领域微调:在保护敏感数据的前提下进行高效微调 通过不断优化和创新领域微调技术,我们可以更好地发挥大语言模型在特定领域的潜力,为医疗、法律等专业领域提供更智能
用GPT4进行指令微调 INSTRUCTION TUNING WITH GPT-4 论文:https://arxiv.org/pdf/2304.03277.pdf 代码:https://instruction-tuning-with-gpt -4.github.io/ 前言 之前的工作表明,使用机器生成的指令伴随数据对大型语言模型(LLM)进行微调,可以使这类模型在新任务上获得显著的zero shot能力,而且不需要人类编写的指令。 在本文中,我们首次尝试使用GPT-4来生成指令伴随数据 ,以进行LLM的微调。 这可以通过使用人类注释的提示和反馈在广泛的任务上对模型进行微调(Ouyang等人,2022),或者使用公共基准和数据集,用手动或自动生成的指令进行监督微调(Wang等人,2022b)。 指令微调的语言模型 self-instruct微调 我们使用LLaMA 7B检查点的监督微调来训练两个模型:(i)LLaMA-GPT4是在GPT-4产生的52K英语指令跟随数据上训练的,其分布情况显示在图
本节我们简要介绍如何基于 transformers、peft 等框架,对 LLaMA3-8B-Instruct 模型进行 Lora 微调。 https://www.codewithgpu.com/i/datawhalechina/self-llm/GLM-4 在本节教程里,我们将微调数据集放置在根目录 /dataset。 9b-chat', cache_dir='/root/autodl-tmp/glm-4-9b-chat', revision='master') 指令集构建 LLM 的微调一般指指令微调过程。 所谓指令微调,是说我们使用的微调数据形如: { "instruction": "回答以下用户问题,仅输出答案。", "input": "1+1等于几?" ", "dense_4h_to_h"], # 现存问题只微调部分演示即可 inference_mode=False, # 训练模式 r=8, # Lora 秩 lora_alpha
领域专用AI模型训练指南:医疗、法律、金融三大垂直领域微调效果对比 Hello,我是摘星! 在彩虹般绚烂的技术栈中,我是那个永不停歇的色彩收集者。 虽然GPT-4、Claude等通用模型在日常对话和通用任务上表现出色,但在医疗诊断、法律条文解读、金融风险评估等专业领域,它们往往缺乏足够的专业知识深度和准确性。 这些差异化需求决定了我们不能简单地使用一套通用的微调策略,而需要针对每个领域的特点制定专门的训练方案。通过对比实验,我发现领域专用模型在专业任务上的表现显著优于通用模型。 5.2 训练成本分析图3:领域专用模型训练成本分布饼图5.3 应用场景适配度图4:领域模型性能对比XY图表6. 参考链接Transformers模型微调最佳实践医疗AI应用伦理指南法律科技发展报告金融AI风险管理框架领域适应学习综述关键词标签#领域专用AI #模型微调 #医疗AI #法律科技 #金融风控
由像 GPT-4 (Achiam等人,2023年) 和 Gemini (团队,2023年) 这样的专有 LLM 的强大性能来看,LLM 可以在单个模型中掌握所有特定领域内的多项任务。 在第t个训练步骤中,作者计算每个领域的可学习潜力分数和遗忘程度分数(第4-5行),并按照算法2的方法为当前阶段分配领域权重(第6行)。 在微调过程中,作者使用了一个学习率调度器,具有线性 Warm up 和余弦衰减,峰值学习率为2e-5, Warm up 比为0.03,权重衰减为0.0,批处理大小为128,共4个epoch。 5 Ablations and Analysis 在第4节中,作者证明了VersaTune在增强多个能力并使模型在微调阶段实现灵活的领域扩展方面的有效性。 图4显示,在域扩展过程中确定特定领域比例上限的标准,缓解了目标模型在微调过程中经历的在其他领域的能力损失。同时,它确保了当前感兴趣领域的能力增长。
这时就需要我们进行手动的微调。微调可以根据相对较小的图像集向模型教授新的、独特的主题。我们今天使用DreamBooth在不影响模型原始功能的情况下实现微调过程。 2、生成模型的微调 微调是指在一个新的、通常更小的数据集上调整预训练的模型,以使模型适应特定的需求,而不会失去从原始数据集学习到的泛化性。这种方法在数据稀缺或需要定制的应用程序中至关重要。 pip install huggingface_hub 为了更快、更节省内存的训练,特别是如果使用特定类型的gpu (T4、P100、V100、A100),还可以选择安装以下组件: Xformers:提供高效 在本文中,我们将使用以下4个训练图像作为示例。 1、下载和可视化训练图像 下面的download_image函数用于从指定的url列表中检索图像,然后下载这些图像并将其转换为RGB格式以保持一致性。 我们将使用他来下载上面的4个图片 urls = [ "https://huggingface.co/datasets/Entreprenerdly/finetunestablediffusion
2、嵌入模型:选择和微调模型以改进语义表示。 3、向量搜索方法:选择有效的相似度量和搜索参数。 4、提供模型的最后提示:制作有效提示以提高输出质量。 每个模型都有自己的长处,在特定于领域的数据上对它们进行评估有助于确定哪个模型提供了最准确的语义表示。 我们定义一个新类“SentenceBertEncoderEmbeddings”。 同时也说明不同类型的RAG任务可能需要特定领域的嵌入模型。 向量搜索方法 向量搜索方法基于相似性度量检索最相关的块。常用的方法包括欧几里得(L2)距离、余弦相似度等。 我们探讨了四种关键优化方向:细化分块方法、选择和微调嵌入模型、选择有效的向量搜索方法以及制作精确的提示。这些组件中的每一个都在提高RAG系统的性能方面起着至关重要的作用。
本节我们简要介绍如何基于 transformers、peft 等框架,对 Phi-3-mini-4k-Instruct 模型进行 Lora 微调。 Lora 是一种高效微调方法,深入了解其原理可参见博客:知乎|深入浅出 Lora。 这个教程会在同目录下给大家提供一个 nodebook 文件,来让大家更好的学习。 ', cache_dir='/root/autodl-tmp', revision='master') 指令集构建 LLM 的微调一般指指令微调过程。 所谓指令微调,是说我们使用的微调数据形如: { "instruction": "回答以下用户问题,仅输出答案。", "input": "1+1等于几?" /output/Phi-3", per_device_train_batch_size=4, gradient_accumulation_steps=4, logging_steps
为了有效地让模型掌握这些新知识,本文作者提出了一种名为「检索增强微调(RAFT)」 的方法。这是一种简单而强大的微调方法,只需简单的微调,就可大幅提升模型在“开卷”特定领域下的问答性能。 「RAFT方法关注的是更加细分的特定领域,并在此领域上进行开卷考试」。LLM可以使用所有在这个特定领域内经过微调的信息来回应用户的提问。 本篇文章主要研究的就是这样的特定领域开卷设置,以及如何让预训练的LLM适应这个特定领域,包括如何让它对检索到的文档数量的变化和干扰项更加稳健。 RAFT方法介绍 RAFT(检索增强微调)是一种新方法,用于准备数据微调,以便对模型定制化以适应特定领域的”开卷考试“,也就是领域内的RAG。 如下图所示,RAFT 提高了所有专业领域的 RAG 性能,在下面测试集上可以看到特定领域的微调显着提高了基础模型的性能,但 RAFT 始终优于现有的特定领域微调方法。
可以进行微调的模型有哪些?GPT-4的微调目前处于实验性访问计划中 - 符合条件的用户可以在创建新的微调任务时在微调界面上申请访问权限。 gpt-4-0613(实验性)。 在接下来的部分中,我们将探讨如何为微调设置数据以及微调在各种示例中如何提高性能超过基线模型。微调发挥有效作用的另一个场景是通过替换GPT-4或利用更短的提示来降低成本和/或延迟,而不会牺牲质量。 如果您能够通过GPT-4获得良好的结果,通常您可以通过在GPT-4完成上进行微调,可能使用缩短的指令提示,在微调gpt-3.5-turbo模型上达到类似的质量。 微调可以用于创建一个专注于特定领域的模型,并表现出特定的内在行为模式。检索策略可以通过在生成响应之前为模型提供相关背景来使新信息对模型可用。
GLM4是清华智谱团队最近开源的大语言模型。 以GLM4作为基座大模型,通过指令微调的方式做高精度文本分类,是学习LLM微调的入门任务。 显存要求相对较高,需要40GB左右。 在本文中,我们会使用 GLM4-9b-Chat 模型在 复旦中文新闻 数据集上做指令微调训练,同时使用SwanLab监控训练过程、评估模型效果。 label = data["output"] message = { "instruction": "你是一个文本分类领域的专家 fintune", experiment_name="GLM4-9B-Chat", description="使用智谱GLM4-9B-Chat模型在zh_cls_fudan-news数据集上微调 可以看到在一些测试样例上,微调后的glm2能够给出准确的文本类型: 至此,你已经完成了GLM4指令微调的训练!
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其惊人的类通用人工智能 应用2.1 垂直领域微调医疗法律金融教育科技电商网络安全农业2.2 LangChain应用2.3 其他应用3. 数据集预训练数据集SFT数据集偏好数据集4. LLM训练微调框架5. 轩辕在BLOOM-176B的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,它不仅可以应对通用领域的问题,也可以解答与金融相关的各类问题,为用户提供准确、全面的金融信息和建议。 Alpaca-GPT-4:地址:https://github.com/Instruction-Tuning-with-GPT-4/GPT-4-LLM图片数据集说明:Alpaca-GPT-4 是一个使用 self-instruct 技术,基于 175 条中文种子任务和 GPT-4 接口生成的 50K 的指令微调数据集。
DeepSeek-7B-chat 4bits量化 QLora 微调 概述 本节我们简要介绍如何基于 transformers、peft 等框架,对 DeepSeek-7B-chat 模型进行 Lora 微调。 指令集构建 LLM 的微调一般指指令微调过程。所谓指令微调,是说我们使用的微调数据形如: { "instrution":"回答以下用户问题,仅输出答案。" 如果设置为True,则在4位精度下加载模型。 bnb_4bit_compute_dtype=torch.half, # 4位精度计算的数据类型。 bnb_4bit_quant_type="nf4", # 4位精度量化的类型。这里设置为"nf4",表示使用nf4量化类型。
SEO的4个关键领域 时本文总计约1600个字左右,需要花5分钟以上仔细阅读。 在许多情况下SEO,可以是很复杂,产生强大的自然搜索结果涉及多少排名因素?十?二十?三十?二百? 在下面的文章中,我将简化的总结出4个主要领域。实际上,SEO在战略层面上是很简单的。 SEO的4大领域 我们做网站优化时都需要考虑的SEO的四个关键领域是: 搜索引擎优化的技术: 您的内容可以如何抓取和编入索引。 网站内容: 对潜在客户的问题有最相关和最好的答案。 4站外优化 站外的优化,对于SEO来说,目的其实,就两个: 1、引蜘蛛来抓取; 2、提高知名度和权威度 如何建立SEO中的权威度?建立你的权威,在很大程度上涉及链接建设。 结语 对于SEO优化,也许我们有时候想的过于复杂,其实,从上面4个领域去理解SEO,也许会更容易些。有任何疑问都可以给我留言。 -- 您的关注与分享就是我最大的动力
1.引言 我们还是先来拆词理解,领域模型可以拆为“领域”和“模型”二词。 领域:按照我们之前的文章的理解,DDD中的领域是指软件系统要解决的问题,如我们的办公设备公众号在线商城就是为了解决电商问题,对应的就是电商领域。 聪明如你,是的,就是我们今天的主题——领域模型。 那领域模型是如何做到的呢? 所以说上面这张UML类图是销售子域的领域模型也不为过。 4.总结 领域反应的是我们业务上需要解决的问题,模型是我们针对该问题提出的解决方案。 以上只是领域模型理论上的理解,但领域模型的设计(领域建模)却是另一个复杂的话题,择日再聊。 参考资料: 领域模型,你真的理解的了吗?
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法 1.SFT 监督微调 1.1 SFT 监督微调基本概念 SFT(Supervised 监督式微调在计算机视觉、自然语言处理等领域中得到了广泛应用。然而监督也存在一些缺点。首先,需要大量的标注数据用于目标任务的微调,如果标注数据不足,可能会导致微调后的模型表现不佳。 4. 对于 Transformer 的每一层结构,自注意力层的参数量为4⋅d2,即WQ、WQ、WQ和WQ ∈Rd×d;FF 层的参数量为8⋅d2,即W1∈Rd×4d,W2∈Rd×4d。 监督微调常见任务:1.用中文预训练BERT模型完成中文实体识别任务 2.训练语言模型GPT3 3.UIE模型在垂直领域的数据集上微调 常见误区:在ImageNet上的预训练的模型再来训练目标检测任务
概述 Github官方地址:GLM-4 网上已经有很多关于微调的文章,介绍各种方式下的使用,这里不会赘述。 我个人比较关心的是微调时的loss计算逻辑,这点在很多的文章都不会有相关的描述,因为大多数人都是关心如何使用之类的应用层,而不是其具体的底层逻辑,当然咱也说不清太底层的计算。 微调 微调格式: [ { "messages": [ { "role": "system", "content": "<system prompt { "role": "assistant", "content": "<assistant response text>" } ] } ] 微调源码地址
更多测评细节详见: GLM-4最新开源版本硬核测评!Datawhale成员万字测评(一) 开发者视角看GLM-4-9B! 接入; WebDemo 部署; vLLM 部署; LoRA 高效指令微调。 ~ LoRA 高效指令微调 首先通过分析子词嵌入模板,从而构造指令微调数据。 进而通过对模型层级分析,判断高阶矩阵位置,从而使用 PEFT 工具对低秩转换层进行指定,开启 LoRA 微调。 最终查看微调效果: User: 小姐,别的秀女都在求中选,唯有咱们小姐想被撂牌子,菩萨一定记得真真儿的—— Assistant: 菩萨也会看错眼的时候。
4 比特优化器在众多预训练和微调任务上进行了实验,在保持准确率无损的情况下可将微调 LLaMA-7B 的显存开销降低多达 57%。 本文在众多经典的任务上对 4 比特优化器进行了评估,包括自然语言理解、图像分类、机器翻译和大模型的指令微调。 在所有的任务上,4 比特优化器达到了与全精度优化器可比的效果,同时能够占用更少的内存。 可以看到,在所有的微调任务上,包括 NLU,QA,NLG,4 比特优化器可以匹配甚至超过 32 比特 AdamW,同时在所有的预训练任务上,CLS,MT,4 比特优化器达到与全精度可比的水平。 从指令微调的任务中可以看到,4 比特 AdamW 并不会破坏预训练模型的能力,同时能较好地使它们获得遵守指令的能力。 之后,我们测试了 4 比特优化器的内存和计算效率,结果如下表所示。 相比 8 比特优化器,本文提出的 4 比特优化器能够节省更多内存,在 LLaMA-7B 微调的实验中最高节省 57.7%。