首页 > 其他分享 >LoRA:语言模型微调的计算资源优化策略

LoRA:语言模型微调的计算资源优化策略

时间:2024-02-05 23:06:16浏览次数:20  
标签:训练 计算资源 模型 微调 矩阵 参数 LoRA

编者按:随着数据量和计算能力的增加,大模型的参数量也在不断增加,同时进行大模型微调的成本也变得越来越高。全参数微调需要大量的计算资源和时间,且在进行切换下游任务时代价高昂。

本文作者介绍了一种新方法 LoRA,可以在保持模型性能的同时大幅减少微调的参数量和所需资源。

LoRA通过引入两个低秩适配矩阵,用矩阵乘法的方法替换大部分参数。实验证明,LoRA 在多项 NLP 任务上的表现与许多微调方法(如Adapter 和 PreLayer 等)相当或更好。与全参数微调相比,LoRA降低了可训练参数数量 10,000 倍,GPU 内存需求减少 3 倍,存储需求减少 10,000 倍,训练速度提高 25 %。

LoRA 为大语言模型的高效多任务微调提供了一种有效途径。作者认为 LoRA 可以推广到更多模型结构,有望加深我们对模型微调机制的理解。

作者 | Arxiv Dives

编译 | 岳扬

标签:训练,计算资源,模型,微调,矩阵,参数,LoRA
From: https://blog.51cto.com/u_15525866/9612815

相关文章

  • 全世界 LoRA 训练脚本,联合起来!
    来自社区的SD-XLDreamboothLoRA微调最佳实践指南太长不看版我们把Replicate在SDXLCog训练器中使用的枢轴微调(PivotalTuning)技术与Kohya训练器中使用的Prodigy优化器相结合,再加上一堆其他优化,一起对SDXL进行DreamboothLoRA微调,取得了非常好的效果。你可以......
  • 基于Deepspeed实现LLaMA-13B或70B模型的微调
    写在前面事实证明,在部分情况下,依然有开启deepspeed的必要性这是上一篇文章,讲述使用双卡/8卡3090微调llama2-70B/13B模型-AlphaInf-博客园(cnblogs.com)但这一篇文章,存在下面的几个问题:如果训练的数据的seq_len过长,那么很有可能出现OOM,无法训练长的数据如果需要调的参数......
  • 为系统守护进程预留计算资源
      参考文档:http://arthurchiao.art/blog/k8s-cgroup-zh/          --cgroups-per-qos默认开启。开启这个参数后,kubelet会将所有的pod创建在kubelet管理的cgroup层次结构下(这样才有了限制所有Pod使用资源总量的基础)。要想启用NodeAllocatable特......
  • P>M>F:基于预训练-元训练-微调流程的小样本学习方法
    目录论文创新点三阶段流程论文地址:PushingtheLimitsofSimplePipelinesforFew-ShotLearning:ExternalDataandFine-TuningMakeaDifferenceCVPR2022SumsungResearch'sGlobalAICenters创新点探讨了在少样本学习中利用外部数据和微调的三阶段......
  • ue4.26 CurveLinearColorAtlas支持非正方形尺寸
    默认CurveAtlas只能是正方形 改代码可以让它支持非正方形: 改法如下:CurveLinearColorAtlas.h//CopyrightEpicGames,Inc.AllRightsReserved.#pragmaonce#include"CoreMinimal.h"#include"UObject/ObjectMacros.h"#include"UObject/Object.h"#in......
  • xtuner微调大模型笔记
    微调原理想象一下,你有一个超大的玩具,现在你想改造这个超大的玩具。但是,对整个玩具进行全面的改动会非常昂贵。※因此,你找到了一种叫 LoRA 的方法:只对玩具中的某些零件进行改动,而不是对整个玩具进行全面改动。※而 QLoRA 是LoRA的一种改进:如果你手里只有一把生锈的螺丝刀,也......
  • xtuner微调大模型作业
    ......
  • stm32笔记[12]-LoRa通信
    摘要在蓝桥杯物联网的CT127C开发板上测试LoRa通信;Node_A按下按钮触发按键中断,经过定时器消抖后触发LoRa发送函数并切换LED的状态,Node_B接收到数据后在屏幕显示累计次数.开发环境Keil5.35.00HAL库版本:STM32CubeFW_L0V1.12.0STM32CubeMX:6.2.1原理简介LoRa简介[htt......
  • 使用SPIN技术对LLM进行自我博弈微调训练
    2024年是大型语言模型(llm)的快速发展的一年,对于大语言模型的训练一个重要的方法是对齐方法,它包括使用人类样本的监督微调(SFT)和依赖人类偏好的人类反馈强化学习(RLHF)。这些方法在llm中发挥了至关重要的作用,但是对齐方法对人工注释数据有的大量需求。这一挑战使得微调成为一个充......
  • XTuner大模型单卡低成本微调实战
    Smiling&Weeping----有趣是片难寻的土,灵魂是朵难养的花一些关于的模型训练的小tips:1.ctrl+c中断  2.tmuxnew-s名称  3.ctrl+b+D退出(没断)        基础作业:构建数据集,使用XTuner微调InternLM-Chat-7B......