首页 > 其他分享 >Llama Factory :百种以上语言模型的统一高效微调框架

Llama Factory :百种以上语言模型的统一高效微调框架

时间:2024-10-21 21:18:20浏览次数:9  
标签:训练 模型 微调 Factory 百种 Llama LoRA

 人工智能咨询培训老师叶梓 转载标明出处

大模型适应到特定下游任务时,传统的全参数微调方法成本高昂,因此,研究者们一直在探索更高效的微调技术。由北京航空航天大学和北京大学的研究团队提出了一个名为Llama Factory的统一框架,旨在解决大模型高效微调的问题。该框架整合了一系列前沿的高效训练方法,使用户能够灵活地定制100多种大模型的微调过程,而无需编写代码。通过内置的Web用户界面Llama board,用户可以轻松地进行模型微调和监控训练状态。

表1中列出了不同的微调技术,如 Freeze-tuning、GaLore、LoRA、DoRA 等,并标注了它们之间的兼容性(用 "√" 和 "×" 表示)。总的来说Llama Factory的主要优点包括:

  1. 多样化的微调技术:集成了多种高效的微调方法,适应不同需求。
  2. 用户友好的界面:通过Llama Factory,用户无需编码即可操作。
  3. 广泛的模型和数据集支持:兼容100+预训练模型和50+数据集。
  4. 资源优化:采用混合精度等技术减少计算资源消耗。
  5. 实时监控与评估:提供训练状态实时可视化和模型性能评估。
  6. 开源:持续更新和改进。
  7. 多语言支持:适合不同语言背景的用户使用。

想要掌握如何将大模型的力量发挥到极致吗?2024年10月26日叶老师带您深入了解 Llama Factory —— 一款革命性的大模型微调工具。

留言“参加”即可来叶老师的直播间互动,1小时讲解让您轻松上手,学习如何使用 Llama Factory 微调模型。互动交流,畅谈工作中遇到的实际问题。

方法

Llama Factory框架中使用的高效微调技术主要分为两大类:优化和计算。

高效优化

优化技术的目标是在微调大型语言模型(LLMs)的参数时,尽可能降低成本。Llama Factory中使用的一些关键技术包括:

  • Freeze-tuning:这种方法涉及冻结大部分参数,同时在一小部分解码层上进行微调。

  • GaLore:梯度低秩投影技术,将梯度投影到更低维度的空间,以内存高效的方式促进全参数学习。

  • LoRA:低秩适应方法,冻结所有预训练权重,并在指定层引入一对可训练的低秩矩阵。

  • QLoRA:结合量化的LoRA方法,进一步减少内存使用。

  • DoRA:权重分解低秩适应,将预训练权重分解为大小和方向组成部分,并更新方向部分以提高性能。

  • LoRA+:为了克服LoRA的次优性而提出的方法。

  • PiSSA:通过使用预训练权重的主成分初始化适配器,以实现更快的收敛。

高效计算

计算技术旨在减少LLMs所需的计算时间或空间。Llama Factory中集成的一些计算技术包括:

  • Mixed Precision Training:混合精度训练,使用不同精度的数据表示来减少内存占用。

  • Activation Checkpointing:激活检查点,通过保存中间激活值来减少内存消耗。

  • Flash Attention:一种硬件友好的方法,通过优化注意力层的输入输出开销来增强注意力计算。

  • S2 Attention:通过使用移位稀疏注意力来解决扩展上下文的挑战,从而减少长上下文LLMs微调中的内存使用。

  • Quantization:通过使用低精度表示来减少大型语言模型的内存需求。

  • Unsloth:结合Triton实现LoRA的反向传播,减少了梯度下降过程中的浮点运算(FLOPs),从而加速了LoRA训练。

图1为Llama Factory的整体架构,包括模型加载器(Model Loader)、数据工作者(Data Worker)和训练器(Trainer)三个主要模块,以及它们如何协同工作。Llama board提供了一个友好的视觉界面,使得用户可以无需编写代码即可配置和启动个别的LLM微调实例,并同步监控训练状态。每个模块的功能和特点如下:

Model Loader

Model Loader负责处理各种模型架构以进行微调,支持大型语言模型(LLMs)和视觉语言模型(VLMs)。它包含以下几个组成部分:

  • Model Initialization:使用Transformers的Auto Classes加载预训练模型并初始化参数。如果分词器的词汇表大小超过嵌入层的容量,则调整层大小并用带噪声的均值初始化新参数。

  • Model Patching:为了启用S2注意力,使用monkey patch替换模型的前向计算。对于flash attention,使用自Transformers 4.34.0以来广泛支持的原生类。

  • Model Quantization:通过bitsandbytes库将模型动态量化为8位或4位。支持包括GPTQ、AWQ和AQLM在内的后训练量化(PTQ)方法。

  • Adapter Attaching:自动确定要附加适配器的适当层。使用PEFT库方便地实现基于适配器的方法,如LoRA、rsLoRA、DoRA和PiSSA。

  • Precision Adaptation:根据计算设备的能力处理预训练模型的浮点精度。对于NVIDIA GPU,如果计算能力为8.0或更高,则采用bfloat16精度;否则,采用float16。

Data Worker

Data Worker开发了一个数据处理管道,包括数据加载、数据对齐、数据合并和数据预处理。它将不同任务的数据集标准化为统一格式,使我们能够在各种格式的数据集上微调模型。

  • Dataset Loading:使用Datasets库加载数据,支持从Hugging Face Hub加载远程数据集或通过脚本或文件读取本地数据集。

  • Dataset Aligning:设计数据描述规范来描述数据集的结构,将数据集转换为与各种任务兼容的标准结构。

  • Dataset Merging:为合并多个数据集提供高效的方法。对于非流式模式的数据集,在训练期间对数据集进行洗牌前简单地将它们连接起来。

  • Dataset Pre-processing:为微调文本生成模型设计,主要用在聊天完成中。提供数十种聊天模板,可以根据模型类型自动选择。

表2为Llama Factory支持的数据集结构,包括纯文本、Alpaca-like 数据、ShareGPT-like 数据和偏好数据等不同格式。 

Trainer

Trainer应用高效的微调技术到不同的训练方法中,支持预训练、指令调整和偏好优化。

  • Efficient Training:集成了包括LoRA+、GaLore和BAdam在内的最新高效微调方法。这些微调方法是独立的,易于应用于各种任务。

  • Model-Sharing RLHF:提出模型共享RLHF,允许使用不超过一个预训练模型进行整个RLHF训练。

  • Distributed Training:可以与DeepSpeed结合进行分布式训练,利用数据并行性充分利用计算设备的能力。

Llama board

Llama board是一个基于Gradio的统一用户界面,允许用户自定义LLMs的微调而无需编写任何代码。它提供了简化的模型微调和推理服务,使用户能够轻松探索LLMs在他们的环境中的潜力。

  • Easy Configuration:允许用户通过与Web界面的交互来自定义微调参数。

  • Monitorable Training:在训练过程中,实时可视化并更新训练日志和损失曲线,使用户能够监控训练进度。

  • Flexible Evaluation:支持在数据集上计算文本相似度分数以自动评估模型,或通过与模型聊天进行人工评估。

  • Multilingual Support:提供本地化文件,支持新语言的集成,目前支持英语、俄语和中文。

通过这些模块的协同工作,Llama Factory为用户提供了一个强大且易于使用的工具,以高效地微调和部署大型语言模型。

评估

系统的评估主要从两个角度:训练效率和对下游任务的适应性。

为了评估训练效率,研究者使用了PubMed数据集,其中包含超过3600万篇生物医学文献记录。他们从中提取了约400K个token来构建训练语料库。随后,他们使用生成预训练目标和各种高效微调方法对Gemma-2B、Llama2-7B和Llama2-13B模型进行了微调。比较了全参数微调、冻结微调、GaLore、LoRA和4位QLoRA等不同微调方法的结果。微调后,他们计算了模型在训练语料库上的困惑度(perplexity),以评估不同方法的效率。实验中还纳入了预训练模型的困惑度作为基线。

实验设置:

  • 学习率:
  • 批次大小:512个token
  • 优化器:8位AdamW,在bfloat16精度下使用激活检查点以减少内存占用
  • 冻结微调:只微调模型的最后3个解码层
  • GaLore:设置秩和缩放到128和2.0
  • LoRA和QLoRA:在所有线性层上附加适配器,设置秩和alpha到128和256

结果显示在Table 4中,其中内存指训练期间消耗的峰值内存,吞吐量计算为每秒训练的token数,PPL代表模型在训练语料库上的困惑度。

由于全参数微调Llama2-13B导致内存溢出,因此结果未记录。

QLoRA由于预训练权重以较低精度表示,因此内存占用最低。

LoRA利用Unsloth优化的LoRA层,展现出更高的吞吐量。

GaLore在大型模型上实现了更低的PPL,而LoRA在小型模型上表现更好。

为了评估不同高效微调方法的有效性,研究者比较了各种模型在下游任务上微调后的性能。他们构建了三个代表性文本生成任务(CNN/DM、XSum和AdGen)的非重叠训练集和测试集,每个任务使用2000个示例和1000个示例。选择了几个指令微调模型,并使用不同的微调方法进行了微调。然后,他们比较了全参数微调(FT)、GaLore、LoRA和4位QLoRA的结果。微调后,他们计算了每个任务测试集上的ROUGE分数,并纳入了原始指令微调模型的分数作为基线。

实验设置:

  • 学习率:
  • 批次大小:4
  • 最大输入长度:2048
  • 优化器:8位AdamW,在bfloat16精度下使用激活检查点
  • GaLore:设置秩和缩放到128和2.0
  • LoRA和QLoRA:在所有线性层上附加适配器,设置秩和alpha到128和256

结果显示在Table 5中,报告了ROUGE-1、ROUGE-2和ROUGEL的平均分数。

一些Gemma-7B和Qwen2-7B模型的结果没有包括在表中,因为GaLore方法可能不适用于它们。

结果显示,LoRA和QLoRA在大多数情况下实现了最佳性能,这突显了这些高效微调方法在适应特定任务方面的有效性。

Llama3-8B在这些模型中表现最佳,而Yi-6B和Mistral-7B在同等大小的模型中展现了有竞争力的性能。

这些实验结果证明了Llama Factory在提高训练效率和适应下游任务方面的有效性,为大型语言模型的微调提供了一个有力的工具。

论文链接:https://arxiv.org/pdf/2403.13372

项目链接:https://github.com/hiyouga/LLaMA-Factory

标签:训练,模型,微调,Factory,百种,Llama,LoRA
From: https://blog.csdn.net/yetzi1975/article/details/143054031

相关文章

  • 使用 Ollama 部署本地 LLM:构建 AI REST API 的简易指南
    最近已有不少大厂都在秋招宣讲,也有一些已在Offer发放阶段了。节前,我们邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。针对新手如何入门算法岗、该如何准备面试攻略、面试常考点、大模型技术趋势、算法项目落地经验分享等热门话题进行了深入的讨论。总结链......
  • Kubernetes运行 Llama3
    引言Ollama是一个运行大模型的工具,可以看成是大模型领域的Docker,可以下载所需的大模型并暴露API。OpenWebUI是一个大模型的WebUI交互工具,支持Ollama,即调用Ollama暴露的API实现与大模型交互。本文将详细介绍如何在Kubernetes上部署Ollama和OpenWebUI,以运行......
  • qwen2.5 ollama推理;openai function call调用中文离线agents使用
    ollama部署qwen2.5:3b0.3.11版本agents使用https://qwen.readthedocs.io/en/latest/framework/function_call.htmlfromopenaiimportOpenAIimportjsondefsend_messages(messages):response=client.chat.completions.create(model="qwen2.5:3b......
  • Lag-Llama:第一个时间序列预测的开源基础模型
    Lag-Llamalagllama是为单变量概率预测而构建的。它使用不依赖于频率的通用方法来标记时间序列数据。这样模型可以很好地推广到不可见的频率。它利用Transformer体系结构和分布头来解析输入令牌,并将它们映射到具有置信区间的未来预测。一、具有滞后特征的标记laglllama的......
  • 文本生成实战:从零开始搭建Code Llama环境助力开发效率
    文章目录前言1.本地部署TextgenerationWebUI2.安装CodeLlama大模型3.实现公网远程使用CodeLlama4.固定TextgenerationWebUI公网地址前言本篇文章介绍如何在本地部署TextgenerationWebUI并搭建CodeLlama大模型运行,并且搭建CodeLlama大语言模型,结合C......
  • Llama3改进与亮点
    0.简介MetaLLaMA3强势发布,迄今为止功能最强大的公开可用的LLM。此版本是在15万亿个Token上预训练的语言模型,具有8B和70B两种参数规模,可以支持广泛的用户场景,在各种行业基准上取得了最先进的性能,并提供一些了新功能,包括改进的推理能力,这些都是同时期最好的开源模......
  • 使用LLaMA-Factory快速训练自己的专用大模型
    转自:萤火架构本文聊聊LLama-Factory,它是一个开源框架,这里头可以找到一系列预制的组件和模板,让你不用从零开始,就能训练出自己的语言模型(微调)。不管是聊天机器人,还是文章生成器,甚至是问答系统,都能搞定。而且,LLama-Factory还支持多种框架和数据集,这意味着你可以根据项目需求灵......
  • Ollama + LangChain: 本地运行LLM大语言模型
    简介在大型语言模型(LLM)领域,Ollama和LangChain已经成为开发人员和研究人员的强大工具。Ollama提供了一种无缝本地运行开源LLM的方式,而LangChain提供了将模型灵活集成到应用程序中的框架。本文将介绍如何设置和使用Ollama和LangChain,以便能够在项目中利用LLM的强大功能。搭建Ollam......
  • Chinese-LLaMA-Alpaca-2: 新一代开源中文大语言模型
    Chinese-LLaMA-Alpaca-2:新一代开源中文大语言模型近日,由哈尔滨工业大学讯飞联合实验室推出的Chinese-LLaMA-Alpaca-2项目引起了广泛关注。该项目是中文LLaMA&Alpaca大模型的第二期,基于Meta发布的可商用大模型Llama-2进行开发,推出了一系列全新的中文大语言模型。本文将对这个......
  • FactoryBean(利用工厂制造复杂的bean)
    可以说FactoryBean创建的对象的生命周期管理取决于其是否为单例对象以及是否实现了特定的生命周期管理接口。对于单例对象,生命周期由Spring容器管理;而对于多例对象,生命周期由Java虚拟机管理。容器仅负责管理FactoryBean实例的生命周期,而不负责FactoryBean所创建对象......