首页 > 其他分享 >ALoRA: Allocating Low-Rank Adaptation for Fine-tuning Large Language Models

ALoRA: Allocating Low-Rank Adaptation for Fine-tuning Large Language Models

时间:2024-06-13 11:32:23浏览次数:28  
标签:tuning Language Models 方法 适应 秩自 ALoRA LoRA 分配

本文是LLM系列文章,针对《ALoRA: Allocating Low-Rank Adaptation for Fine-tuning Large Language Models》的翻译。

ALoRA:为微调大型语言模型分配低秩自适应

摘要

参数有效微调(PEFT)在大语言模型时代因其有效性和效率而被广泛研究。低秩自适应(LoRA)作为一种流行且具有代表性的方法,表现出了值得称赞的性能。然而,它是用固定的内在秩来实现的,这可能不是下游任务的理想设置。认识到需要更灵活的下游任务自适应,我们将LoRA的方法扩展到一种创新的方法,我们称之为分配低秩自适应(ALoRA),该方法能够在自适应过程中对固有秩进行动态调整。首先,我们提出了一种新的方法AB-LoRA,它可以有效地估计每个LoRA秩的重要性得分。其次,在AB LoRA的指导下,我们逐步修剪大量且对LoRA产生负面影响的LoRA等级,并将修剪后的LoRA预算分配给需要更高等级的重要Transformer模块。我们在各种任务上进行了实验,实验结果表明,我们的ALoRA方法可以在具有可比可调参数的情况下优于最近的基线。

1 引言

2 相关工作

3 方法

4 实验

5 结论

这项工作提出了分配低秩自适应(ALoRA),这是一种用于参数高效微调大型语言模型的创新方法。在假设不同Transformer模块的自适应可以是不同的储罐的基础上,我们引入了一种在微调过程中分配LoRA等级的新工作流程。首先,我们提出了一种新的方法,即A

标签:tuning,Language,Models,方法,适应,秩自,ALoRA,LoRA,分配
From: https://blog.csdn.net/c_cpp_csharp/article/details/139645664

相关文章

  • Aligning with Human Judgement: The Role of Pairwise Preference in Large Language
    本文是LLM系列文章,针对《AligningwithHumanJudgement:TheRoleofPairwisePreferenceinLargeLanguageModelEvaluators》的翻译。与人类判断相一致:配对偏好在大型语言模型评估者中的作用摘要1引言2LLM计算器校准的局限性3不确定性引导的成对偏好搜索4......
  • SentencePiece: A simple and language independent subword tokenizer and detokeniz
    郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! Abstract 1Introduction 2SystemOverview  3LibraryDesign 3.1LosslessTokenization  3.2Efficientsubwordtrainingandsegmentation 3.3Vocabularyidmanagement 3.4Customi......
  • monaco-editor 的 Language Services
    我们是袋鼠云数栈UED团队,致力于打造优秀的一站式数据中台产品。我们始终保持工匠精神,探索前端道路,为社区积累并传播经验价值。本文作者:修能这是一段平平无奇的SQL语法SELECTid,sum(name)FROMstudentGROUPBYidORDERBYid;如果把这段代码放到monaco-editor(@......
  • 论文解读——CVPR2024《Learning by Correction: Efficient Tuning Task for Zero-Sho
    一、研究背景  视觉-语言模型是一类能够处理和理解图像及其相关文本信息的模型,它们在多种视觉-语言任务中展示了卓越的性能。这些任务包括图像描述(imagecaptioning)、视觉问题回答(visualquestionanswering)、图像-文本检索(image-textretrieval)等。这些模型通常经过大规......
  • 论文解读——AAMAS2024《OPEx: A Large Language Model-Powered Framework for Embodi
    一、研究背景  具身指令执行(EmbodiedInstructionFollowing,EIF)是指在一个特定的物理或虚拟环境中,使能自主代理(如机器人或虚拟代理)根据自然语言指令来执行复杂的任务。这种研究领域集中于探索自然语言理解与机器执行能力的结合,尤其是在模拟家庭或日常环境中,如何使代理......
  • Hungry Hungry Hippos Towards Language Modeling with State Space Models
    目录概H3代码FuD.Y.,DaoT.,SaabK.K.,ThomasA.W.,RudraA.andReC.Hungryhungryhippos:towardslanguagemodelingwithstatespacemodels.2022.概Mamba系列第五作:H3.H3感觉H3是之前的linearattention和SSM的一个结合,它所做的只是把line......
  • LISA: Reasoning Segmentation via Large Language Model
    Motivation&Abs现有的感知系统依赖人类的指示,难以主动推理以理解人类意图。新任务:reasoningsegmentation,模型需要根据给定的复杂/具有隐含意义的文本输出相应的segmask。新的benchmark:包含1000张左右图像的数据集(image-instruction-mask)。模型:LISA,既有LLM的语言生成能力......
  • On the Parameterization and Initialization of Diagonal State Space Models
    目录概符号说明S4D代码GuA.,GuptaA.,GoelK.andReC.Ontheparameterizationandinitializationofdiagonalstatespacemodels.NeurIPS,2022.概Mamba系列第四作:S4D.符号说明\(u(t)\in\mathbb{R}\),输入信号;\(x(t)\in\mathbb{R}^N\),中间状态;\(......
  • CBT-LLM: A Chinese Large Language Model for Cognitive Behavioral Therapy-based M
    本文是LLM系列文章,针对《CBT-LLM:AChineseLargeLanguageModelforCognitiveBehavioralTherapy-basedMentalHealthQuestionAnswering》的翻译。CBT-LLM:一个基于认知行为治疗的心理健康问答的中文大语言模型摘要1引言2相关工作3方法4实验5结论和未......
  • Arcee’s MergeKit: A Toolkit for Merging Large Language Models
    本文是LLM系列文章,针对《Arcee’sMergeKit:AToolkitforMergingLargeLanguageModels》的翻译。Arcee的MergeKit:一个用于合并大型语言模型的工具包摘要1引言2背景和相关工作3库设计:关键设计原则4MergeKit的可扩展性5MergeKit的普及性和有效性6结论和......