首页 > 其他分享 >神经网络量化流程(第一讲TensorRT)

神经网络量化流程(第一讲TensorRT)

时间:2023-12-23 16:44:41浏览次数:35  
标签:FP32 QDQ TensorRT 神经网络 算子 量化 op

TensorRT量化工具,支持PTQ和QAT量化

基本流程:读取模型-》转化为IR进行图分析,做一些优化策略

一、TensorRT量化模式

TensorRT有两种量化模式:分别是implicitly以及explicitly量化,前者是隐式量化,在7.0及之前版本用的较多;后者显式量化在8.0版本后才完全支持,就是可以加载带有QDQ信息的模型,然后生成量化版本的Engine;

1、 与隐式量化相关性较繦的训练后量化(PTQ)

不需要训练,只需要提供一些样本图片,然后在已经训练好的模型上进行校准,统计出来每一层的Scale,就可以实现量化

 量化流程如下:导出ONNX模型,转换为TensorRT的过程中,使用TRT提供的calibration方法校准,可以使用TRT官方提供的trtexec命令,也可以使用trt提供的python或c++的API接口去量化

训练后量化算法:EntropyCalibrationV2,MinMaxCalibrator,EntropyCalibrator,LegacyCalibrator

量化时,TensorRT会在优化网络时深度Int8精度,采用速度优先方式。

2.训练时量化

直接加载QAT模型,包含QDQ操作的量化模型,QAT过程和TensorRT没有关系,TRT只是个推理框架,实际QAT都是在训练框架中做,如Pytorch。

QAT量化后的ONNX模型如下:

 其中有QuantizeLiner和DequantizeLiner,即对应的QDQ模块,包含了该层或激活值的量化Scale和Zero_point。负责将输入的FP32转为Int8,然后进行反量化将Int8转回FP32.实际网络中训练使用的精度还是FP32,只是量化算子在训练中可以学习到量化和反量化的尺度信息,可以在训练中让模型权重和量化参数更好地适应量化过程。

 QAT量化中最重要的就是Fake量化算子,它负责将输入该算子的参数,先量化后反量化,同时记录这个scale。

 这些FQ算子在ONNX中可以表示为QDQ算子

 什么是QDQ?

Q是量化,DQ是反量化,在网络中通常作为模拟量化的op

输入X是FP32类型的op,输出是FP32,然后在输入A这个op时会经过Q(即量化)操作,这个时候操作A我们会默认是INT8类型的操作,A操作之后会经过DQ(即反量化)操作将A输出的INT8类型的结果转化为FP32类型的结果并传给下一个FP32类型的op。

 QDQ有什么用?

a、存储量化信息,如scale和zero_point,这些信息可以放在Q和DQ操作里;

b、可以当做显式指定哪一层是量化层,可以默认包在QDQ操作中间的op都是Int8类型的可量化的操作

 有了QDQ,TensorRT在解析模型时,会根据QDQ位置找到可量化的op,然后和QDQ融合。

 QDQ融合策略

融合后该算子就是Int8算子,可以通过调整QDQ位置来设置网络中每个op的精度(某些op必须高精度,因此QDQ位置要放对)

 QDQ决定量化细节

显式插入QDQ,告诉TensorRT哪此层Int8,哪些层可以Fuse

 经过融合优化后,最终生成量化版的Engine

 TensorRT加载QAT的ONNX模型并优化的整体流程:

 TensorRT显式量化算子:IQuantizeLayer,IDequantizeLayer,即Q和DQ,在构建TensorRT网络时可以通过这两个op来控制网络量化细节

IQuantizeLayer:将浮点型Tensor转换为Int8,通过add_quantize API添加:

output= clamp(round(input/scale)+zero_point)   clamp范围[-128,127]

上述两处TensorRT的Layer和ONNX中quantizeLinear和DequantizeLinear对应,使用onnx2trt时,会被解析成对应算子

 3、TensorRT对于QDQ模型的优化策略

当TensorRT检测到有QDQ算子时,会触发显式量化

优化准则:Q算子负责FP32-》INT8,DQ负责INT8-》FP32,被 QDQ包围的算子就是量化算子

a、尽可能将DQ算子推迟,推迟反量化操作

b、尽可能将Q算子提前,提前量化操作

 QDQ优化策略:

量化所有带权重操作的输入,如卷积,反卷积,GEMM等,如TensorRT会根据QDQ的分布进行不同的优化,比如左边的conv融合后输入INT8但输出为FP32,而右边的输入输出皆为INT8(两者的区别只是因为右面的conv后头跟了一个Q)

 默认情况下,不量化带权重操作的输出

激活层,除了RELU,其它激活层比如SILU,不好量化,保持浮点型;比如Sigmoid仅支持FP16;

 

标签:FP32,QDQ,TensorRT,神经网络,算子,量化,op
From: https://www.cnblogs.com/jimchen1218/p/17923283.html

相关文章

  • 深度学习的典型神经网络类型——卷积神经网络(CNN)
    1.CNN的定位CNN属于深度学习中的一类典型神经网络,是一种前馈神经网络,它采用的是SGD(随机梯度下降)算法,它的人工神经元可以相应一部分覆盖范围内的单元,在图像处理方面的表现十分出色。CNN在模式分类领域,因其避免了对图像的前期的预处理,所以它可以直接输入图像得到结果。2.CNN的构......
  • 神经网络基础-目录
    神经网络基础(11)机器学习、深度学习模型、模型训练神经网络基础(1)激活函数(1)sigmoid与二元逻辑分类的神经元模型神经网络基础(2)激活函数(2)sigmoid与多分类的神经网络模型神经网络基础(3)激活函数(3)SoftMax与多分类神经网络模型神经网络基础(4)逻辑分类标签与OneHot编码......
  • 神经网络可视化新工具:TorchExplorer
    TorchExplorer是一个交互式探索神经网络的可视化工具,他的主要功能如下:TorchExplorer是一款创新的人工智能工具,专为使用非常规神经网络架构的研究人员设计。可以在本地或者wandb中生成交互式Vega自定义图表,提供网络结构的模块级可视化。在左边的面板可以模块级方式展现神经网络架......
  • 电信行业客户流失预测:KNN、朴素贝叶斯、逻辑回归、LDA/QDA、随机森林、支持向量机、CA
    全文链接:https://tecdat.cn/?p=34635原文出处:拓端数据部落公众号分析师:LingziLu客户流失是一个存在于各个行业的严重问题,这一问题也同样受到众多电信服务提供商的关注——因为获得一个新客户的成本远远超过保留一个老客户的成本。因此,探索可能对客户流失产生重要影响的相关指......
  • pytorch——基于循环神经网络的情感分类
    任务目标基于给定数据集,进行数据预处理,搭建以LSTM为基本单元的模型,以Adam优化器对模型进行训练,使用训练后的模型进行预测并计算预测分类的准确率。数据集信息IMDB数据集是一个对电影评论标注为正向评论与负向评论的数据集,共有25000条文本数据作为训练集,25000条文本数据作为测试......
  • 神经网络优化篇:详解dropout 正则化(Dropout Regularization)
    dropout正则化除了\(L2\)正则化,还有一个非常实用的正则化方法——“Dropout(随机失活)”。假设在训练上图这样的神经网络,它存在过拟合,这就是dropout所要处理的,复制这个神经网络,dropout会遍历网络的每一层,并设置消除神经网络中节点的概率。假设网络中的每一层,每个节点都以抛硬币......
  • BP神经网络思想及其Python实现
    神经网络是一种模拟人类大脑工作方式的计算模型。它由神经元组成,这些神经元相互连接形成网络。每个连接都有一个权重,而神经元则通过激活函数处理输入并生成输出。神经网络可以分为输入层、隐藏层和输出层。在训练过程中,神经网络通过调整权重来学习模式和特征,使其能够进行预测或分......
  • 用深度递归神经网络检测甲基化DNA结合的转录因子
    DetectionoftranscriptionfactorsbindingtomethylatedDNAbydeeprecurrentneuralnetwork关键词:deeprecurrentneuralnetwork;methylatedDNA;transcriptionfactors;tripeptide;tripeptidewordvector作者:HongfeiLi,YueGong,YifengLiu,HaoLin,Guoh......
  • P2 什么是神经网络
    深度学习指的是训练神经网络,有时候规模很大那么神经网络到底是什么???比方说我们现在有这么一张图 这张图叫:  HousingPricePrediction 我们有的数据是六个房子的面积和每平米的单价。我们现在知道了logestic回归模型,我们将数据输入这个模型,会拟合出一条穿过这些数据的......
  • 【Pytorch基础实战】第二节,卷积神经网络
    项目地址https://gitee.com/wxzcch/pytorchbase/tree/master/leason_2源码importtorchfromtorchimportnn,optimfromtorch.autogradimportVariablefromtorch.utils.dataimportDataLoaderfromtorchvisionimportdatasets,transforms#定义一些超参数batch_......