首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • LlamaFactory春节特供:AI 精准拿捏对联格律,告别对仗翻车

    借助LlamaFactory这类高效的微调工具,大模型也能精准拿捏对联的对仗之美、平仄之韵,写出既有文化底蕴又贴合新春氛围的合格对联,让AI也能为传统年俗添上一笔新意。 项目概述LlamaFactory是一款开源的一站式大模型微调框架,兼容Qwen、Baichuan、ChatGLM、LLaMA等上百种主流大模型架构。 以让Qwen3-14B模型掌握对联创作为例,只需准备数千组规范的“上联-下联”配对优质数据,完成LoRA相关参数配置后,在LlamaFactory中启动训练,数小时后就能得到一款专注于对联生成、精通对仗格律的优化模型 1.3样本使用方式将预处理后的Alpaca格式数据集保存为JSON文件后,即可直接作为训练样本导入LlamaFactory

    8310编辑于 2026-03-04
  • 来自专栏自然语言处理(NLP)论文速递

    北航&北大 | 提出统一微调框架,整合前沿微调方法,可支持100多种LLMs的微调!

    为了能够实现对大模型的高效微调,本文作者提出了一个统一的大模型微调框架:LLAMAFACTORY,该框架整合了一系列前沿的高效微调方法,支持对100多种大模型的微调。 为了解决上述问题,本文作者提出了一个名为LLAMAFACTORY的框架,它通过可扩展的模块统一了多种高效微调方法,使用户能够在最小的资源消耗和高吞吐量下微调数百个LLMs。 LLAMAFACTORY微调方法 LLAMAFACTORY框架中的高效微调技术(Efficient Fine-Tuning Techniques)主要分为两大类:优化方法和计算方法。 LLAMAFACTORY框架 LLAMAFACTORY框架是一个用于大型语言模型(LLMs)高效微调的统一平台。 除了这些核心模块,LLAMAFACTORY还提供了一系列的实用工具,包括加速推理和全面评估LLMs的性能。

    1.2K11编辑于 2024-03-26
  • LlamaFactory微调揭秘

    但是,AI的"记忆移植"比人类复杂多了,今天我们就来看看如何用LlamaFactory让AI学会说"我是小喵,技术吧开发"。图1:AI身份认知的华丽转身 第一幕:为什么AI需要"身份证"? 第二幕:LlamaFactory的"洗脑术"核心原理:就像教小孩背古诗还记得小时候背"床前明月光"吗?老师让你背100遍,背到滚瓜烂熟。 :一键启动# 就像按下"开始上课"按钮llamafactory-cli train examples/train_lora/qwen3_lora_sft.yaml训练过程:AI的学习日记图5:AI从"学渣 LlamaFactory的SFT微调技术就像一个神奇的"身份证办理处",让AI学会了自我介绍。 去下载LlamaFactory,给你的AI办个"身份证"吧!记住,每个成功的AI背后,都有一个懂得"因材施教"的训练师。

    20010编辑于 2026-01-10
  • 来自专栏xiaosen

    LLaMA Factory微调Llama3模型

    pip uninstall -y vllm pip install llamafactory[metrics]==0.7.1 pip install accelerate==0.30.1 安装后输入llamafactory-cli version检查一下是否安装成功: llamafactory-cli version # ------------------------------------------------------ export USE_MODELSCOPE_HUB=1 && \ llamafactory-cli webui USE_MODELSCOPE_HUB设为1,表示模型来源是ModelScope 然后就进入到了

    60910编辑于 2024-09-05
  • 来自专栏AI大模型应用开发炼丹房

    四代微调框架深度拆解:24GB显存撬动700B参数的技术革命

    LlamaFactory:零代码可视化工厂​​技术架构​​:​​突破性功能​​:动态LoRA(DoRA):权重分解技术,微调效果逼近全参训练长文本优化:LongLoRA支持128K上下文微调即插即用部署 ⚡⚡⚡⚡陡峭超算中心四、选型决策树​​组合策略推荐​​:​​快速原型​​:Unsloth + Google Colab Pro​​中型项目​​:Axolotl + AWS p4d实例​​生产部署​​:LlamaFactory LlamaFactory (54k stars)(https://github.com/hiyouga/LLaMA-Factory)LlamaFactory 提供易用的网页界面进行模型微调——像向导一样一步步操作

    95310编辑于 2025-08-17
  • 来自专栏LLM-RL

    收藏!LLM-RL训练框架:3大流派+6大框架,一文搞定

    5LLaMAFactorygitHub:https://github.com/hiyouga/LlamaFactory66.1k⭐官方文档:https://docs.llamafactory.com.cn 5.2Unsloth集成与效率优化LLaMAFactory非常敏锐地集成了社区中最高效的工具。Unsloth加速:它是首批集成Unsloth的框架之一。 5.3局限性尽管在SFT和DPO领域表现出色,但在PPO等在线RL训练方面,LLaMAFactory的能力相对有限。 备选LLaMAFactory:只是想快速验证SFT+DPO的效果,不需要写代码。中小企业:OpenRLHF:性价比最高。 LLaMAFactory:如果团队缺乏深度开发能力,仅需对现有模型进行微调适配。

    86510编辑于 2026-01-20
  • 2小时打造专业医疗助手:基于CareGPT与Qwen3-8B的微调实战

    import jsonimport pandas as pdimport jsonlinesfrom typing import List, Dict def chatmed_to_llamafactory jsonlines.open(input_path, "r") as f: for line in f: raw_data.append(line) llamafactory_data 已跳过") continue with open(output_path, "w", encoding="utf-8") as f: json.dump(llamafactory_data 原始数据共{len(raw_data)}条,有效转换{len(llamafactory_data)}条,输出路径:{output_path}") if __name__ == "__main__": /datasets/multi-med.json" chatmed_to_llamafactory( input_path=INPUT_FILE, output_path

    54210编辑于 2025-10-29
  • 来自专栏周末程序猿

    ChatGPT|用GPT实现高考志愿系统

    这里微调就使用:LLamaFactory+LLama3,使用界面就可以进行: LLamaFactory 整理的数据集如下: [ { "conversations": [ {

    26300编辑于 2025-02-27
  • Qwen3-Omni多模态微调实战:从通用模型到AI智能博物官

    执行如下命令,下载安装llamafactory。 替换llamafactory源码文件,单击下载loader.py文件,并放至/workspace/LLaMA-Factory/src/llamafactory/data/目录下进行替换。 6. 启动llamafactory服务,可以通过6666端口号启动。 GRADIO_SERVER_PORT=6666 llamafactory-cli webui 7. 访问llamafactory服务。通过对外服务网址进行llamafactory的访问。 模型训练 1. ● 数据集路径:设置为/workspace/llamafactory/data,如图①; ● 数据集:选择内置的数据集alpaca_museum_multimodal,如图②; ● Extra arguments

    1.3K20编辑于 2025-10-29
  • 来自专栏云上修行

    在腾讯云云服务器上推理及微调Qwen2-7B大语言模型

    下载微调依赖 pip install deepspeed pip install llamafactory pip install click -U 微调Demo 这里使用llamafactory来微调 llamafactory-cli webui 启动后,在本地浏览器使用 http://{腾讯云云服务器外网IP地址}:7860 来进入webui。

    2.4K11编辑于 2024-07-22
  • 来自专栏机器之心

    一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

    # src/llamafactory/model/loader.py sequence_parallel_group = apply_sequence_parallel(model_args) # 序列并行 # src/llamafactory/data/loader.py @sequence_parallel_decorator def get_dataset(...) loss 计算则需要在 Trainer # src/llamafactory/train/sft/trainer.py dist.all_reduce(loss, op=dist.ReduceOp.SUM, group=sp_group) dist.all_reduce (label_num, op=dist.ReduceOp.SUM, group=sp_group) loss /= label_num # src/llamafactory/train/dpo/trainer.py

    37300编辑于 2025-02-03
  • 来自专栏《Cloud Studio》

    【无需服务器】零代码微调DS

    [torch,metrics]"四、启动Llama-Factory可视化界面llamafactory-cli webui五、Cloudflare内网穿透开始微调六、下载数据集(GitHub、飞桨、魔搭社区均可

    48100编辑于 2025-03-17
  • 来自专栏GPUS开发者

    RTX AI Toolkit:AI PC时代创业者必备神器

    模型定制教程 模型定制教程将指导您如何启动AI Workbench,使用LlamaFactory GUI进行QLoRa微调,并导出量化模型。 参考项目: AI Workbench LLaMa-Factory Project https://github.com/NVIDIA/workbench-llamafactory LLaMa-Factory

    42910编辑于 2024-07-01
  • 来自专栏C++开发

    优云智算:借助强大镜像社区,开启AI算力新纪元!

    结合镜像社区,提供多种场景的容器镜像,如:LLamaFactory,SD-webUI、LLM等,利用容器的快速拉起特性,实现一键部署,5分钟快速上手AI,打造一个丰富的公共镜像库,以支持多样化的云计算和 例如,LLamaFactory、SD-webUI、LLM等热门AI应用的镜像均已在社区上线。此外,DeepSeek系列镜像(如Janus-Pro、DeepSeek-R1等)也已支持一键部署。

    1.3K00编辑于 2025-03-02
  • 来自专栏人工智能极简应用

    AI智能体研发之路-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用

    个匿名卷 #如果没有-v指定,默认存储在/var/lib/docker/volumes/{容器ID}中,如果-v指定,则存储在指定目录中 EXPOSE 7860 #默认指定监听的端口 CMD [ "llamafactory-cli CUDA_VISIBLE_DEVICES=1 llamafactory-cli train \ --stage sft \ #指定sft微调训练,可选rm,dpo等 --do_train 根据勾选参数预测&评估的命令如下,多数都好理解,不再赘述 CUDA_VISIBLE_DEVICES=1 llamafactory-cli train \ --stage sft \ -

    8.1K11编辑于 2024-08-13
  • 来自专栏LLM

    收藏!LLM开发全链路:5大步骤+15大框架,从数据治理到RLHF一文通关

    数据集导出:一键导出为Alpaca或ShareGPT格式,并自动生成LLaMAFactory配置文件。 4.1LlamaFactorygitHub:https://github.com/hiyouga/LlamaFactory66.1k⭐官方文档:https://docs.llamafactory.com.cn 关键技术特性与算法矩阵LlamaFactory展现了极强的Day0支持能力,即在Llama3/4、Qwen2.5/3、DeepSeek-R1等前沿模型发布的第一时间提供适配。 快速领域定制:中小企业或开发团队需要将通用模型转化为特定垂直领域的助手时,LlamaFactory提供了最快的落地路径。 国产化替代:在需要基于昇腾NPU进行自主可控的大模型微调时,LlamaFactory的NPU训练方案提供了详尽的工程参考。

    38112编辑于 2026-01-26
  • 从“脸盲”到“火眼金睛”:我用Qwen3.5教会AI看懂春晚同款机器人

    第三步:数据集注册在/workspace/llamafactory/data/dataset_info.json配置文件中配置如下内容,确保平台能正确识别数据格式和字段映射。 ,"customized_status":8,"total_tokens":"49205","num_samples":"367","avg_tokens":"134.07"}在/workspace/llamafactory

    13010编辑于 2026-03-09
  • 来自专栏AI智韵

    增量预训练全攻略:用LLama-Factory实现垂直领域模型定制化,算力节省90%的实战秘籍

    解决 LLaMA-Factory 校验 完成安装后,可以通过使用 llamafactory-cli version 来快速校验安装是否成功 如果您能成功看到类似下面的界面,就说明安装成功了。 model_name_or_path为模型的路径,我用Qwen3的0.6B模型为例: Qwen/Qwen3-0.6B llama3_lora_pretrain.yaml和Qwen在同一个目录,然后,在命令行里执行: llamafactory-cli

    3.5K10编辑于 2025-05-23
  • 来自专栏得物技术

    利用多Lora节省大模型部署成本|得物技术

    以LLaMA-Factory这个微调大模型的框架为例,启用Lora微调只需配置以下参数:接下来,执行训练命令即可启动Lora微调:llamafactory-cli train examples/train_lora 首先,完成如下配置:接下来,执行命令llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml即可将参数合并成一个新的大模型。

    1.7K10编辑于 2024-08-20
  • 来自专栏【腾讯云开发者】

    从DeepSeek到Manus:如何实现本地LLM微调+联网开发?

    基座模型部署及效果展示 启动 LLama-Factory webUI cd LLaMA-Factory llamafactory-cli webui 浏览器访问 ip:7860 配置模型名称以及本地模型文件路径 LoRA具体的原理可参考:https://arxiv.org/pdf/2106.09685 webui配置微调: llamafactory-cli train \ --stage sft \ llamafactory-cli export cust/merge_deepseekr1_lora_sft.yaml 合并配置文件: ### model model_name_or_path: /data

    1.3K10编辑于 2025-03-11
领券