首页 > 其他分享 >HAWQ: Hessian AWare Quantization of Neural Networks With Mixed-Precision

HAWQ: Hessian AWare Quantization of Neural Networks With Mixed-Precision

时间:2025-01-03 17:02:19浏览次数:7  
标签:HAWQ Neural Precision 特征值 AWare Hessian Quantization block

目录

Dong Z., Yao Z., Gholami A., Mahoney M. W. and Keutzer K. HAWQ: Hessian aware quantization of neural networks with mixed-precision. ICCV, 2019.

本文利用 Hessian 的 top eigenvalues 来定位对应 block 所需要的量化 bitwidth, 并利用 multi-state fin-tuning 恢复精度.

HAWQ (Hessian AWare Quantization)

  • 上图展示了, 不同 block 所对应的首特征值以及在添加扰动下损失的变化情况. 很明显, 首特征值越大的 block 往往对于扰动更加敏感, 所以理应用更多的 bitwidth 去量化.

  • 于是, 作者采用如下的指标 (\(\lambda_i\) 表示第 \(i\) 个 block 的 Hessian 矩阵的首特征值, \(n_i\) 表示 block 中的参数量):

    \[S_i = \lambda_i / n_i, \]

    对不同 Block 进行排序, 然后靠前的采用更大的 bitwitdth. 即首特征值越大/参数量越小的 block 用更大的 bitwidth 进行量化.

  • 之后, 通过 multi-stage fine-tuning 来恢复精度, 微调的顺序根据误差来排序:

    \[\Omega_i = \lambda_i \|Q(W_i) - W_i\|_2^2. \]

标签:HAWQ,Neural,Precision,特征值,AWare,Hessian,Quantization,block
From: https://www.cnblogs.com/MTandHJ/p/18650525

相关文章

  • PACT: Parameterized Clipping Activation for Quantized Neural Networks
    目录概主要内容ChoiJ.,WangZ.,VenkataramaniS.,ChuangP.I.,SrinivasanV.andGopalakrishnanK.PACT:Parameterizedclippingactivationforquantizedneuralnetworks.2018.概本文提出对网络中的激活值进行裁剪以实现更低量化.主要内容作者的思想很简单......
  • 对准确度(accuracy)、精确率(precision)、召回率(recall)、F1值文章的总结
    前言准确度、精确率、召回率、F1值作为评估指标,经常用到分类效果的评测上。比较好理解的二分类问题,准确度评估预测正确的比例,精确率评估预测正例的查准率,召回率评估真实正例的查全率。如何把这些评估指标用到多分类上呢,比如有三个类别A、B、C,准确度好理解,只要关系是否预测正确即......
  • 通过代码彻底搞懂 Ragas 的 Context Precision 是什么
    通过代码彻底搞懂Ragas的ContextPrecision是什么在信息检索和机器学习中,评估检索结果的质量非常重要。ContextPrecision是一个用于衡量"检索上下文"中相关文本块比例的指标。它的计算方法是对上下文中每个文本块的精度@k值取平均。精度@k是指在排名k位置的相关文本......
  • 平均精度(Average Precisio)、阈值(Threshold)、精确率(Precision)、召回率(Recall)
    平均精度(AveragePrecisio):简单说就是衡量模型在不同召回率水平下的精确率的平均值。可以理解为模型对预测结果的整体准确性和可靠性的一个综合评估指标。比如说有个选水果的任务,AP就是看在选各种水果(不同召回率情况)时,选对的比例(精确率)的平均情况。如果AP越高,说明模型在判断哪些水......
  • Deep Learning Convolutional Neural Networks
    LapProject–DeepLearningObjectiveThisexperimentaimstohelpstudentsunderstandConvolutionalNeuralNetworks(CNNs)andtheirapplicationsindeeplearningbyimplementinganimagerecognitionmodel.StudentswillusetheCombinedCOCOdataset,do......
  • Accurate Neural Training with 4-bit Matrix Multiplications at Standard Formats
    目录概LogarithmicUnbiasedQuantization代码ChmielB.,BannerR.,HofferE.,YaacovH.B.andSoundryD.Accurateneuraltrainingwith4-bitmatrixmultiplicationsatstandardformats.ICLR,2023.概本文希望实现4-bit的模型训练和推理.提出了一种logarithm......
  • AlexNet: ImageNet Classification with Deep Convolutional Neural Networks
    摘要:在ImageNet竞赛中,主要使用8层(5个卷积层、三个全连接层),其中在第1,2,5层使用最大池化,三个全连接层使用softmax非线性激活。实现图像分类,正是AlexNet网络模型的结构,在传统的神经网络模型中,使用非饱和和高效的CPU来卷积操作,同时也是用“dropout”(正则化)来减少过拟合。1介绍对于......
  • 论文解读-Graph neural networks: A review of methods and applications
     论文介绍这篇论文是图神经网络领域的综述性质的文章,从各个论文里面凝聚和提取了很多精炼的信息和观点,值得一读。论文是2020年成稿投出去的,有点陈旧的。 GNN的介绍在introduction里面对比了GNN和CNN,表示出CNN的关键是局部连接,共享权重,和多层的使用。其中CNN操作的是常规......
  • 【AI学习笔记3】神经元、神经网路与感知机 Neuron、Neural Network and Perceptron
    一、从生物神经元到人工神经网络    每个神经元细胞都向外伸出许多分支,其中用来接收输入的分支称作树突(dendrites),用来输出信号的分支称作轴突(axon),轴突连接到树突上形成一个突触(synapse)。每个神经元可以通过这种方式连接多个其他神经元,每个神经元也可以接受多个其他......
  • [论文阅读] Breaking the Representation Bottleneck of Chinese Characters{colon}Ne
    Pretitle:BreakingtheRepresentationBottleneckofChineseCharacters:NeuralMachineTranslationwithStrokeSequenceModelingaccepted:EMNLP2022paper:https://arxiv.org/abs/2211.12781code:https://github.com/zjwang21/StrokeNet关键词:NMT(neuralmachin......