首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI SPPECH

    63_模型定制:领域微调技术

    ,资源需求降至原来的5%以下 自动化:微调流程自动化工具成熟,如LLaMA-Factory、XTuner等开源框架 混合化:多种微调技术组合使用,如LoRA+RLHF的混合策略 领域化:针对特定领域的专业化微调方法不断涌现 尽管资源消耗巨大,但在需要深度领域适配的场景中,全参数微调仍然是效果最佳的选择。 3.1 技术原理 全参数微调的核心思想是在保持模型架构不变的情况下,使用领域特定数据对所有模型参数进行更新: 全参数微调流程: 预训练模型 → 领域数据输入 → 前向传播 → 损失计算 → 反向传播 → 行业应用与最佳实践 9.1 金融领域微调案例 某大型金融机构在2025年实施的领域微调项目: 需求:构建专业的金融分析助手,能够准确理解金融术语,分析市场趋势,生成合规报告。 对于希望在特定领域构建专业AI应用的团队和企业来说,掌握模型微调技术将成为核心竞争力之一。

    36310编辑于 2025-11-16
  • 来自专栏AI SPPECH

    103_领域微调:医疗与法律案例

    领域微调的理论基础与挑战 1.1 领域微调的基本原理 领域微调是指在预训练大模型的基础上,使用特定领域的专业语料进行二次训练或微调,以使模型更好地适应特定领域的语言习惯、专业知识和任务需求。 在进行跨领域微调时,可以采用以下领域知识融合技巧: 分阶段微调策略: 先在通用数据上预训练 然后在大规模领域数据上进行领域适应 最后在特定任务数据上进行微调 领域术语增强: 医疗领域:增强对医学术语 主要内容包括: 领域微调基础:详细介绍了领域微调的基本概念、原理和流程 医疗领域微调:实现了医疗数据集构建和医疗领域微调器 法律领域微调:实现了法律数据集构建和法律领域微调器 词汇优化技术:探讨了词汇表优化的重要性和实施方法 领域对比分析:对比了医疗与法律领域微调的异同点 未来,领域微调技术有望在以下方向继续发展: 多模态领域微调:结合文本、图像等多种模态信息进行领域微调 持续学习与知识更新:实现模型在领域知识更新时的高效适应 跨领域知识融合:开发更有效的跨领域知识迁移方法 隐私保护领域微调:在保护敏感数据的前提下进行高效微调 通过不断优化和创新领域微调技术,我们可以更好地发挥大语言模型在特定领域的潜力,为医疗、法律等专业领域提供更智能

    28910编辑于 2025-11-16
  • 来自专栏AI人工智能

    领域专用AI模型训练指南:医疗、法律、金融三大垂直领域微调效果对比

    领域专用AI模型训练指南:医疗、法律、金融三大垂直领域微调效果对比 Hello,我是摘星! 在彩虹般绚烂的技术栈中,我是那个永不停歇的色彩收集者。 这些差异化需求决定了我们不能简单地使用一套通用的微调策略,而需要针对每个领域的特点制定专门的训练方案。通过对比实验,我发现领域专用模型在专业任务上的表现显著优于通用模型。 在医疗诊断准确率测试中,经过专业微调的模型比通用模型提升了35%;在法律条文匹配任务中,专业模型的精确度提升了42%;在金融风险预测方面,专业模型的预测准确率提升了28%。 2.2 医疗模型微调策略from transformers import AutoModel, AutoConfigimport torchimport torch.nn as nnclass MedicalBERT 参考链接Transformers模型微调最佳实践医疗AI应用伦理指南法律科技发展报告金融AI风险管理框架领域适应学习综述关键词标签#领域专用AI #模型微调 #医疗AI #法律科技 #金融风控

    83610编辑于 2025-08-21
  • 来自专栏AIGC 先锋科技

    全面增强LLM的多领域性能,新型微调框架,实现LLM的跨领域知识均衡 !

    尽管它们具有潜力,但现有研究主要关注微调过程中的特定领域增强,其中挑战在于其他领域的知识灾难性遗忘。 结果表明,VersaTune在多个领域的泛化微调中实现了35.21%的改进。 此外,在关注特定领域微调时,VersaTune在保持目标领域训练有效性的同时,将其他非目标领域的性能降级减少了38.77%。 作者提出以下论断: 第一条声明:使用特定领域数据比例 微调的LLM将在与预训练输出分布 对齐的这些领域中表现出增强和均衡的性能,与使用不匹配的数据分布微调的模型相比。 这些评分随后用于在组合SFT数据集中微调每个领域的表示,以确保在整个微调过程中各个领域的能力均衡发展(Line 3-7)。同时,模型M_θ的参数根据通过反向传播计算的梯度进行更新(Line 8)。

    71710编辑于 2024-12-30
  • 来自专栏自然语言处理(NLP)论文速递

    UC伯克利 | 提出索增强微调(RAFT),只需少量微调,就能大幅提升模型领域QA能力

    为了有效地让模型掌握这些新知识,本文作者提出了一种名为「检索增强微调(RAFT)」 的方法。这是一种简单而强大的微调方法,只需简单的微调,就可大幅提升模型在“开卷”特定领域下的问答性能。 「RAFT方法关注的是更加细分的特定领域,并在此领域上进行开卷考试」。LLM可以使用所有在这个特定领域内经过微调的信息来回应用户的提问。 本篇文章主要研究的就是这样的特定领域开卷设置,以及如何让预训练的LLM适应这个特定领域,包括如何让它对检索到的文档数量的变化和干扰项更加稳健。 RAFT方法介绍 RAFT(检索增强微调)是一种新方法,用于准备数据微调,以便对模型定制化以适应特定领域的”开卷考试“,也就是领域内的RAG。 如下图所示,RAFT 提高了所有专业领域的 RAG 性能,在下面测试集上可以看到特定领域微调显着提高了基础模型的性能,但 RAFT 始终优于现有的特定领域微调方法。

    1.1K10编辑于 2024-03-25
  • 来自专栏AI

    微调

    在高层次上,微调包括以下步骤:准备并上传训练数据训练一个新的微调模型评估结果,如果需要,返回到步骤 1使用您的微调模型访问我们的定价页面,了解有关微调模型训练和使用的更多信息。 可以进行微调的模型有哪些?GPT-4的微调目前处于实验性访问计划中 - 符合条件的用户可以在创建新的微调任务时在微调界面上申请访问权限。 创建微调模型在确保您的数据集具有正确的数量和结构,并且已经上传文件之后,下一步是创建微调作业。我们支持通过微调UI或以编程方式创建微调作业。 微调可以用于创建一个专注于特定领域的模型,并表现出特定的内在行为模式。检索策略可以通过在生成响应之前为模型提供相关背景来使新信息对模型可用。 我可以继续微调已经微调过的模型吗?是的,您可以在创建微调作业时将已微调模型的名称传递给模型参数。这将以已微调模型为起点开始一个新的微调作业。我如何估计微调模型的成本?请参考上文中的成本估算部分。

    69710编辑于 2024-04-20
  • 来自专栏NLP/KG

    LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等

    LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其惊人的类通用人工智能 应用2.1 垂直领域微调医疗法律金融教育科技电商网络安全农业2.2 LangChain应用2.3 其他应用3. 数据集预训练数据集SFT数据集偏好数据集4. LLM训练微调框架5. 通过医学知识图谱和GPT3.5 API构建了中文医学指令数据集,并在此基础上对LLaMA进行了指令微调,提高了LLaMA在医疗领域的问答效果。 通过中文金融公开数据+爬取的金融数据构建指令数据集,并在此基础上对LLaMA进行了指令微调,提高了 LLaMA 在金融领域的问答效果。 轩辕在BLOOM-176B的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,它不仅可以应对通用领域的问题,也可以解答与金融相关的各类问题,为用户提供准确、全面的金融信息和建议。

    4.5K13编辑于 2024-04-29
  • 来自专栏DeepHub IMBA

    解决语义搜索痛点,基于对比学习的领域特定文本嵌入模型微调实践

    然而,通用嵌入模型在处理特定领域任务时往往存在性能瓶颈。微调技术为解决这一问题提供了有效途径。本文将深入探讨嵌入模型微调的核心原理,并以AI职位匹配为例,详细阐述基于对比学习的微调实现过程。 基于对比学习的嵌入微调方法 嵌入微调通过在特定任务数据上进行额外训练来调整预训练模型的表示能力。这种方法特别适用于需要匹配不同长度文本(如简短查询与详细文档)或理解领域特定术语的场景。 例如,在云计算领域,"扩展"和"实例"等术语具有专门的技术含义,通用模型可能无法准确表示这些概念。 对比学习是实现嵌入微调的核心技术。 微调后的模型在测试集上实现了100%的准确率,充分证明了针对特定领域进行模型优化的必要性和可行性。 嵌入模型微调不仅解决了通用模型在专业领域表现不佳的痛点,更为构建高质量的语义搜索系统提供了切实可行的技术路径。

    37410编辑于 2025-08-20
  • 来自专栏NLP/KG

    人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法

    人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法 1.SFT 监督微调 1.1 SFT 监督微调基本概念 SFT(Supervised 监督式微调在计算机视觉、自然语言处理等领域中得到了广泛应用。然而监督也存在一些缺点。首先,需要大量的标注数据用于目标任务的微调,如果标注数据不足,可能会导致微调后的模型表现不佳。 P-tuning v2 微调方法 3.1 P-tuning v2 微调方法的相关技术 传统的微调方法需要微调整个预训练语言模型,对于大语言模型的微调需要大量的资源和时间,急需更加高效的微调方法。 5.关键知识点总结 SFT监督微调时监督微调时,学习率通常会设置得很小 常见误区:1.监督微调需要大量的训练时间和数据 2.监督微调将复制源模型的所有参数至目标模型 3.监督微调只需要几十条监督数据即可 监督微调常见任务:1.用中文预训练BERT模型完成中文实体识别任务 2.训练语言模型GPT3 3.UIE模型在垂直领域的数据集上微调 常见误区:在ImageNet上的预训练的模型再来训练目标检测任务

    10K66编辑于 2023-10-11
  • 来自专栏机器之心

    RAG还是微调?微软出了一份特定领域大模型应用建设流程指南

    机器之心报道 编辑:rome 检索增强生成(RAG)和微调(Fine-tuning)是提升大语言模型性能的两种常用方法,那么到底哪种方法更好?在建设特定领域的应用时哪种更高效? 在构建大语言模型应用程序时通常有两种常见的方法来整合专有和特定领域的数据:检索增强生成和微调。检索增强生成通过外部数据增强提示,而微调将额外的知识整合到模型本身中。 本文涉及的是农业研究,目标是生成该特定领域的答案。因此研究的起点是农业数据集,它被输入到三个主要组件中:问答生成、检索增强生成和微调过程。 方法 本文第 2 部分详细介绍采用了方法论,包括数据获取过程、信息提取过程、问题和答案生成,以及模型的微调。该方法论围绕着一个旨在生成和评估用于构建领域特定助手的问答对流程展开,如下图 1 所示。 最后,流程通过 Q&A 对微调模型。优化过程采用了低秩调整(LoRA)等方法,确保全面理解科学文献的内容和背景,使其成为各个领域或行业的有价值资源。

    78610编辑于 2024-02-26
  • XTuner 微调

    xtuner train 命令用于启动模型微调进程。该命令需要一个参数:CONFIG 用于指定微调配置文件。 对于全量微调的模型(full)其实是不需要进行整合这一步的,因为全量微调修改的是原模型的权重而非微调一个新的 Adapter ,因此是不需要进行模型整合的。 增量预训练微调 定义一些基本方法。 tree -l 准备配置文件 在准备好了模型和数据集后,我们就要根据我们选择的微调方法结合微调方案来找到与我们最匹配的配置文件了,从而减少我们对配置文件的修改量。 在 PART 2 的部分,由于我们复制的配置文件是全参数微调的配置,而我们希望使用 QLoRA 算法进行微调,所以可以添加 QLoRA 算法的配置。

    47010编辑于 2024-10-10
  • 来自专栏对白的算法屋

    当我在微调的时候我在微调什么?

    作者 | BroLin 出品 | 对白的算法屋 从 BERT 开始,预训练模型(PLMs)+微调(finetune)已经成为了NLP领域的常规范式。 微调效果到底好不好,微调之后的词向量表示是否有效,可以直接用针对下游任务的分类器的准确度来衡量。只有微调效果足够好时,分类效果才够准。 DIRECTPROBE 基于聚类的探针。 通过比较微调前后不同簇之间的距离,可以量化微调之后的词向量表示的变化。 分类器探针接到BERT输出层,跟着BERT一起微调。为了降低微调过程中不稳定性的影响,同一个任务作者使用不同的初始化参数进行了五次微调。 使用原始train对BERT~small~进行微调微调前后均只使用subtrain训练分类器。分类器的训练不参与微调。 如下图所示,微调前分类器在subtest和test上的学习曲线一致。

    2.1K10编辑于 2022-04-01
  • 来自专栏AI理论与前沿

    对于大模型,到底微调还是不微调

    当时,最先进的领域应用通过监督微调(SFT)构建,即使用标注数据对预训练模型进行进一步训练,以适应自己的领域和下游任务。然而,随着大型模型(>1B 参数)的兴起,微调的问题变得更加复杂。 QLoRA 这样的算法使得使用有限资源对大模型进行微调变得更加可行。作为示例,表 1 显示了 Llama 2 7B 的三种微调模式(全微调、LoRA 和 QLoRA)的峰值 GPU 内存。 1.3 处理代表性不足的领域尽管 LLM 经过大量通用数据训练,但它们并不总是能够掌握每个小众领域的细微差别、术语或特定性。在法律、医疗或金融等领域微调已被证明可以提高下游任务的准确性。 我们提供两个示例:如文章中所述,患者的病历包含高度敏感的数据,通常不在公共领域中出现。因此,基于 LLM 的病历总结系统需要进行微调。 我们提供三个示例:微调 LLM 以更好地使用或忽略来自检索器的上下文微调 LLM 评审模型来评估其他 LLM 的指标,如扎根性、合规性或有用性微调 LLM 来增加上下文窗口2 微调与其他领域适应技术的比较

    90800编辑于 2024-09-17
  • 来自专栏NLP/KG

    人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法

    人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法 1.SFT 监督微调 1.1 SFT 监督微调基本概念 SFT(Supervised 监督式微调在计算机视觉、自然语言处理等领域中得到了广泛应用。然而监督也存在一些缺点。首先,需要大量的标注数据用于目标任务的微调,如果标注数据不足,可能会导致微调后的模型表现不佳。 P-tuning v2 微调方法 3.1 P-tuning v2 微调方法的相关技术 传统的微调方法需要微调整个预训练语言模型,对于大语言模型的微调需要大量的资源和时间,急需更加高效的微调方法。 5.关键知识点总结 SFT监督微调时监督微调时,学习率通常会设置得很小 常见误区:1.监督微调需要大量的训练时间和数据 2.监督微调将复制源模型的所有参数至目标模型 3.监督微调只需要几十条监督数据即可 监督微调常见任务:1.用中文预训练BERT模型完成中文实体识别任务 2.训练语言模型GPT3 3.UIE模型在垂直领域的数据集上微调 常见误区:在ImageNet上的预训练的模型再来训练目标检测任务

    25.5K07编辑于 2023-07-16
  • 来自专栏蓝天

    Ubuntu系统微调

    本章讲述了基本的基于命令行界面的系统配置方法。在学习本章前,你需要先阅读 Ubuntu 系统安装提示, 第 3 章.

    1.1K30发布于 2018-08-07
  • 来自专栏AI

    大模型微调

    所有微调方式的设计差异,本质围绕「参数更新范围」「是否引入新增模块」「是否依赖提示特征」三个核心维度展开,也因此划分出四大主流类别,参数高效微调(PEFT)是当前AI领域的绝对主流。 ,是最原始、最基础的微调方式。 二、第二类:部分微调(Partial Fine-tuning) 底层核心原理 基于预训练模型的特征分层特性,冻结模型底层/中层的通用特征参数,仅微调上层的任务特定特征参数,是全量微调的轻量化改进版。 核心设计逻辑 Transformer类预训练模型的底层层(如前3-4层)学习的是通用语言特征(如词性、句法、基础语义),所有任务通用;上层层(如后3-4层)学习的是抽象任务特征(如语义匹配、领域专属表达 -3层; 微调嵌入层+顶层:针对低资源语言/领域微调词嵌入层(适配任务专属词汇)+顶层特征层。

    49010编辑于 2026-02-09
  • 来自专栏AI技术探索和应用

    ChatGLM模型微调

    ChatGLM3: https://github.com/THUDM/ChatGLM3微调前建议将模型下载到本地。微调前还需要安装依赖。 conda create -n chatglm3 python=3.11 -ypip install astunparse对话模型微调我们使用 ToolAlpaca 数据集来进行微调。 这种方法在微调的step较多的情况下会影响到模型的工具调用功能。 全量微调时,. 训练精度强烈推荐使用 bf16 格式进行微调,并确认所有依赖和硬件满足微调硬件要求,否则可能出现 loss = 0 的情况。(5)部署和推断测试同Chat微调模型

    1.7K21编辑于 2025-09-26
  • 来自专栏AI大模型应用开发炼丹房

    一文讲透LLM的进化路线、领域微调及NLP的应用落地方式

    --> B[领域专家] --人类偏好对齐--> C[行业助手]2.2 关键技术突破模块化推理(MOTIF):马里兰大学提出多轮强化学习框架,通过分层思考突破上下文限制,在数学推理任务上准确率提升3.8% ", "output": "..."}灾难性遗忘对策:采用LoRA微调,仅更新0.1%参数4.2 奖励建模(RM)偏好数据集:同一问题配对的优质/劣质回答损失函数设计:loss = -torch.log :从全参到高效适配5.1 微调技术对比5.2 DPO直通偏好优化from trl import DPOTrainerdpo_trainer = DPOTrainer( model, args train_dataset=dataset, beta=0.1 # 控制偏离强度)dpo_trainer.train()优势:避免RLHF复杂流程,训练速度提升3倍由于文章篇幅有限,关于大模型微调实战 ,我这边也整理了一份技术文档,粉丝朋友自行领取《大模型微调实战项目思维导图》六、硬件需求全景图6.1 训练阶段6.2 推理优化量化部署:4-bit量化使13B模型可在RTX 4090运行蒸馏加速:DeepSeek

    1.1K10编辑于 2025-07-20
  • 来自专栏相约机器人

    PyTorch模型微调实例

    其实就是为了我们进行微调使用的。 什么是微调 针对于某个任务,自己的训练数据不多,那怎么办? 所以几乎所有的迁移学习都是图像识别方向的,所以大家看到的迁移学习基本上都是以神经网络相关的计算机视觉为主,本文中也会以这方面来举例子 迁移学习初衷是节省人工标注样本的时间,让模型可以通过一个已有的标记数据的领域向未标记数据领域进行迁移从而训练出适用于该领域的模型 我个人的理解,微调应该是迁移学习中的一部分。微调只能说是一个trick。 如何微调 对于不同的领域微调的方法也不一样,比如语音识别领域一般微调前几层,图片识别问题微调后面几层,这个原因我这里也只能讲个大概,具体还要大神来解释: 对于图片来说,我们CNN的前几层学习到的都是低级的特征 微调实例 这里面我们使用官方训练好的resnet50来参加kaggle上面的 dog breed 狗的种类识别来做一个简单微调实例。

    2K10发布于 2020-02-19
  • 来自专栏自然语言处理(NLP)论文速递

    北航&北大 | 提出统一微调框架,整合前沿微调方法,可支持100多种LLMs的微调

    为了能够实现对大模型的高效微调,本文作者提出了一个统一的大模型微调框架:LLAMAFACTORY,该框架整合了一系列前沿的高效微调方法,支持对100多种大模型的微调。 为了解决上述问题,本文作者提出了一个名为LLAMAFACTORY的框架,它通过可扩展的模块统一了多种高效微调方法,使用户能够在最小的资源消耗和高吞吐量下微调数百个LLMs。 LLAMAFACTORY微调方法 LLAMAFACTORY框架中的高效微调技术(Efficient Fine-Tuning Techniques)主要分为两大类:优化方法和计算方法。 它通过集成最新的高效微调技术,提供了一种独立于具体训练任务的微调方法,并且能够通过DeepSpeed进一步降低内存消耗。 这突出了这些高效微调方法在适应特定任务方面的有效性。

    1.2K11编辑于 2024-03-26
领券