低比特量化是深度学习中一个很有价值的方法,它将连续的浮点数数值映射到低比特表示的离散整数数值,可以显著减少深度学习模型的存储资源占用和计算量,使其更高效、更容易部署在资源受限的设备上。
基于百度飞桨与英特尔在量化方面的深度合作,7月28日,百度飞桨与英特尔团队的资深工程师将与大家共同探讨量化压缩与推理的联合优化问题,介绍OpenVINOTM如何对PaddleSlim量化模型进行支持。在本次演讲中,我们将探讨可应用于深度学习模型的不同类型的量化技术。此外,还将介绍神经网络压缩框架( NNCF ),以及其如何进一步为OpenVINOTM工具套件进行加持,从而实现卓越性能。
您将学习到:
- 量化技术的价值以及不同类型的量化技术
- 如何基于OpenVINOTM工具套件使用NNCF
- 通过Jupyter Notebook演示量化前后的神经网络图,并进行性能比较
- 以目标检测任务为例,基于无人机巡检场景介绍OpenVINOTM对飞桨量化模型的支持
活动亮点:
- 飞桨模型压缩工具库
- 基于PaddleSlim和OpenVINO的量化压缩与推理的联合优化
- 以目标检测任务为例,基于无人机巡检场景介绍OpenVINO对飞桨量化模型的支持
参与此次会议,和我们一起走近模型量化之旅。