首页 > 其他分享 >关于SVD-LLM的应用-基于SVD量化

关于SVD-LLM的应用-基于SVD量化

时间:2024-07-12 12:30:07浏览次数:13  
标签:SVD 矩阵 正交 LLM 量化 对角 向量

关于SVD-LLM的应用-基于SVD量化

一 背景

  论文连接:https://arxiv.org/pdf/2403.07378 这是论文

  github:https://github.com/AIoT-MLSys-Lab/SVD-LLM

 

二 什么是SVD

   SVD可能是 可以把矩阵向量 转化到另外一个 空间角度,以方便数据处理。

  2.1 概念

  SVD(Singular Value Decomposition,奇异值分解)是一种矩阵分解的技术,它可以将一个矩阵分解成三个矩阵的乘积。给定一个m×n的矩阵A,SVD 将其分解为以下形式:

  A = U * Σ * V^T

  其中U 是一个m×m的正交矩阵,Σ 是一个m×n的对角矩阵,V^T(V 的转置)是一个n×n的正交矩阵。

  对角矩阵

  对角矩阵是一种特殊的方阵,其除了对角线上的元素外,其余元素均为零。

  正交矩阵

  正交矩阵是指其行向量和列向量是正交的方阵。在数学上,一个n×n的矩阵A如果满足以下条件,则称为正交矩阵:

  1. A 的每一列都是单位向量(向量的长度为1);
  2. A 的每一列两两正交(即任意两列的内积为0,表示它们垂直);
  3. A 的每一行也是单位向量且两两正交

  正交变换

         

 

          

  向量长度

  ||v|| = sqrt(x1^2 + x2^2 + ... + xn^2),将每个分量的平方求和后再开根号。这样计算出的结果就是向量的长度或模。

 

三 SVD-LLM原理

   示意图:

       

  Key Designs

  • Truncation-Aware Data Whitening: Ensure truncating smaller singular values has lower compression loss.
  • Layer-Wise Closed-Form Update: Compensate for accuracy degradation under high compression ratio.

  更详细的原理  来自论文

         

 

  

              

 

 

四 怎么使用SVD-LLM

  已封装好脚本 主要对LLAMA-7B 可以使用

标签:SVD,矩阵,正交,LLM,量化,对角,向量
From: https://www.cnblogs.com/lx63blog/p/18297903

相关文章

  • 【 2024!深入了解 大语言模型(LLM)微调方法(总结)】
    文末有福利!引言众所周知,大语言模型(LLM)正在飞速发展,各行业都有了自己的大模型。其中,大模型微调技术在此过程中起到了非常关键的作用,它提升了模型的生成效率和适应性,使其能够在多样化的应用场景中发挥更大的价值。那么,今天这篇文章就带大家深入了解大模型微调。其中主要......
  • Lookback Lens:用注意力图检测和减轻llm的幻觉
    在总结文章或回答给定段落的问题时,大语言模型可能会产生幻觉,并会根据给定的上下文回答不准确或未经证实的细节,这也被称为情境幻觉。为了解决这个问题,这篇论文的作者提出了一个简单的幻觉检测模型,其输入特征由上下文的注意力权重与新生成的令牌(每个注意头)的比例给出。它被称为回......
  • 高盛开源的量化金融 Python 库
    GSQuantGSQuant是用于量化金融的Python工具包,建立在世界上最强大的风险转移平台之一之上。旨在加速量化交易策略和风险管理解决方案的开发,凭借25年的全球市场经验精心打造。它由高盛的定量开发人员(定量)创建和维护,以支持交易策略的开发和衍生产品的分析。GSQuant可用于......
  • AI推介-大语言模型LLMs之RAG(检索增强生成)论文速览(arXiv方向):2024.06.20-2024.07.01
    文章目录~1.AStudyonEffectofReferenceKnowledgeChoiceinGeneratingTechnicalContentRelevanttoSAPPhIREModelUsingLargeLanguageModel2.FromRAGtoRICHES:RetrievalInterlacedwithSequenceGeneration3.SK-VQA:SyntheticKnowledgeGeneration......
  • Ollama完整教程:本地LLM管理、WebUI对话、Python/Java客户端API应用
    老牛同学在前面有关大模型应用的文章中,多次使用了Ollama来管理和部署本地大模型(包括:Qwen2、Llama3、Phi3、Gemma2等),但对Ollama这个非常方便管理本地大模型的软件的介绍却很少。目前,清华和智谱AI联合发布开源的GLM4-9B大模型也能支持Ollama进行本地部署了(本地部署GLM-4-9B清华......
  • LLM大模型: 常用的数据清洗方法总结
    LLM的三大要素:算力:算力的本质是拼财力,普通人是无力改变的;算法/模型结构:目前最流行的还是transformer架构,各种LLM都是基于transformer改细节,暂时没有用新的框架替代transformer。至于后续manba会不会替代transformer架构,有待观察!数据:这块是做LLMpre-train或fine-tune最大......
  • 阿里开源语音理解和语音生成大模型FunAudioLLM
       近年来,人工智能(AI)的进步极大地改变了人类与机器的互动方式,例如GPT-4o和Gemin-1.5等。这种转变在语音处理领域尤为明显,其中高精度的语音识别、情绪识别和语音生成等能力为更直观、更类人的交互铺平了道路。阿里开源大模型FunAudioLLM,一个创新的框架,旨在促进人类与大型......
  • 量化交易入门:如何在QMT中配置Python环境,安装第三方依赖包
    哈喽,大家好,我是木头左!引言QMT,作为量化交易系统中的佼佼者,以其强大的功能和灵活的操作性,受到了广大投资者的青睐。但是,对于很多新手来说,如何在QMT中配置Python环境,安装第三方依赖包,却是一个让人头疼的问题。本文将从零开始,手把手教你如何在QMT中配置Python环境,安装第三方依赖包......
  • 【LLM大模型】一文带你速通RAG、知识库和LLM!
    检索增强生成(RetrievalAugmentedGeneration,RAG)是一种强大的工具,它通过将企业外部知识整合到生成过程中,增强了大语言模型(LLM)的性能。RAG本质上是通过工程化手段,解决LLM知识更新困难的问题。其核心手段是利用外挂于LLM的知识数据库(通常使用向量数据库)存储未在训练数据集中......
  • YOLOv8优化策略:轻量化改进 | LeYOLO,新的可扩展和高效CNN目标检测体系结构
       ......