首页 > 其他分享 >PiSSA :将模型原始权重进行奇异值分解的一种新的微调方法

PiSSA :将模型原始权重进行奇异值分解的一种新的微调方法

时间:2024-04-12 11:57:41浏览次数:19  
标签:7B 微调 矩阵 PiSSA LoRA 奇异

我们开始看4月的新论文了,这是来自北京大学人工智能研究所、北京大学智能科学与技术学院的研究人员发布的Principal Singular Values and Singular Vectors Adaptation(PiSSA)方法。

PiSSA和LoRA一样,都是基于这样的前提:对模型参数的改变会形成一个低秩矩阵。

这种方法通过将模型中的矩阵表示为两个可训练矩阵的乘积,辅以一个用于错误校正的残差矩阵,优化了紧凑的参数空间。利用奇异值分解(SVD),PiSSA初始化主奇异值和奇异向量以训练这两个矩阵,同时在微调过程中保持残差矩阵静态。

PiSSA与LoRA的架构相一致,继承了诸如可训练参数减少、轻松部署等好处。但是与LoRA不同,使用PiSSA进行微调的过程与完整模型过程相似,会避免无效的梯度步骤和次优结果。

在LLaMA 2-7B、Mistral-7B-v0.1和Gemma-7B模型的多个任务的比较实验中,PiSSA凭借卓越的表现脱颖而出。以主奇异值和向量初始化的微调适配器产生了更好的结果。

 

https://avoid.overfit.cn/post/33c2c6c983364b629c1e01479836bacc

标签:7B,微调,矩阵,PiSSA,LoRA,奇异
From: https://www.cnblogs.com/deephub/p/18130867

相关文章

  • 开源模型应用落地-qwen1.5-7b-chat-LoRA微调代码拆解
    一、前言  本篇文章将解析QWen1.5系列模型的微调代码,帮助您理解其中的关键技术要点。通过阅读本文,您将能够更好地掌握这些关键技术,并应用于自己的项目中。   开源模型应用落地-qwen1.5-7b-chat-LoRA微调(二)二、术语介绍2.1.LoRA微调  LoRA(Low-RankAdap......
  • 微调工程师岗位可能并不存在,但使用 AI 编码工具已经成为刚需
    智能编码工具的快速普及是否会带来全新的编程模式?“大力出奇迹”的规律还将继续适用吗?本文节选自QCon北京特别策划圆桌节目,内容摘自阿里云通义灵码产品技术负责人陈鑫在圆桌对话里的精彩回答。全文见:Sora很难跟进?微调就不是一个岗位?大力出奇迹将继续适用?大模型将对软件生态带来......
  • 【部分内容摘录】深度学习(人工智能):大模型的微调方法
    原文地址:http://www.cn-witmed.com/list/34/9555.html模型微调的基本思想是使用少量带标签的数据对预训练模型进行再次训练,以适应特定任务。在这个过程中,模型的参数会根据新的数据分布进行调整。这种方法的好外在于,它利用了预训练模型的强大能力,同时还能够适应新的数据分布。......
  • Stable Diffusion的微调方法详解
    StableDiffusion作为一种强大的文本到图像生成模型,已经在艺术、设计和科研等多个领域取得了广泛的应用。然而,为了使其更好地适应特定任务或领域,微调(Fine-tuning)技术显得尤为重要。本文将详细介绍StableDiffusion的微调方法,包括数据准备、模型结构选择、训练策略等多个方面......
  • 探索大模型微调:分享我的学习经历
    近年来,随着深度学习技术的不断发展,大模型微调(Fine-tuning)成为了机器学习领域一个备受关注的话题。在这个充满活力的领域里,我有幸参加了一门关于大模型微调的课程,并在学习过程中积累了一些经验和心得。在本文中,我将分享我在这门课程中的学习心得,以及对大模型微调的一些思考。了......
  • 开源模型应用落地-qwen1.5-7b-chat-LoRA微调(二)
     一、前言        预训练模型提供的是通用能力,对于某些特定领域的问题可能不够擅长,通过微调可以让模型更适应这些特定领域的需求,让它更擅长解决具体的问题。    本篇是开源模型应用落地-qwen-7b-chat-LoRA微调(一)进阶篇,学习通义千问最新1.5系列模型的微调方......
  • Python中Keras微调Google Gemma:定制化指令增强大型语言模型LLM
    全文链接:https://tecdat.cn/?p=35476原文出处:拓端数据部落公众号像谷歌、Meta和Twitter这样的大公司正大力推动其大型语言模型(LLM)的开源。最近,谷歌DeepMind团队推出了Gemma——一个由与创建谷歌Gemini模型相同的研究和技术构建的轻量级、开源LLM系列。本文,我们将帮助客户了解Ge......
  • LLM - 大语言模型的指令微调(Instruction Tuning) 概述
    欢迎关注我的CSDN:https://spike.blog.csdn.net/本文地址:https://blog.csdn.net/caroline_wendy/article/details/137009993大语言模型的指令微调(InstructionTuning)是一种优化技术,通过在特定的数据集上进一步训练大型语言模型(LLMs),使其能够更好地理解和遵循人类的指......
  • 自然语言处理: 第十九章LoRA&QLoRA微调技巧
    论文地址:使用低秩自适应(LoRA)进行参数高效LLM微调-LightningAI—Parameter-EfficientLLMFinetuningWithLow-RankAdaptation(LoRA)-LightningAI本篇文章是由位来自威斯康星大学麦迪逊分校的统计学助理教授SebastianRaschka,也是人工智能平台LightningAI的......
  • 聊聊ShareGPT格式的微调数据集
    转载请注明住处:https://www.cnblogs.com/zhiyong-ITNote概述ShareGPT格式的数据集中,一般是如下格式:[{"conversations":[{"from":"human","value":"IsawadressthatIliked.Itwasoriginallypriceda......