首页 > 其他分享 >MegEngine 使用小技巧:如何使用 MegCC 进行模型编译

MegEngine 使用小技巧:如何使用 MegCC 进行模型编译

时间:2023-07-06 16:34:20浏览次数:44  
标签:mgb enable MegCC nchw44 模型 编译 MegEngine model

MegEngine 作为一个训推一体的 AI 框架,为用户提供了模型训练以及部署的能力。但是在部署模型时,由于会存在对于部署的模型计算来说不必要的代码,导致 SDK 体积比较大。为了解决上述问题,我们提供了新的工具:AI 编译器 MegCC

MegCC 有以下特性:

  1. 只生成完成输入模型计算的必要的 kernel 代码以及用户指定的 CV 算子,编译得到的二进制文件体积很小。

  2. 支持 int8 量化模型以及 float16 量化,且生成的 kernel 是精心优化过的,推理性能好。

  3. 支持平台广。硬件方面,支持 Armv8、Armv7 以及 X86。操作系统方面,支持标准和非标准操作系统。

本文将重点解析模型部署中的重要步骤之一-模型编译:编译 MegEngine 模型,生成运行这个模型对应的 Kernel 以及和这些 Kernel 绑定的模型。

编译模型时:

  • MegCC 生成模型使用的内核和用户所需的 CV 内核
  • MegCC 做了多项优化,例如静态内存规划和模型优化
  • MegCC 将上述数据转储到最终模型中

模型编译阶段主要使用 mgb-to-tinynn 工具,编译完成之后,会在用户给定的目录下面,生成对应的纯 C 代码的 Kernel 以及对应的模型。为了编译模型,mgb-to-tinynn 工具需要用户提供一个 Json 文件来配置编译选项。

目前 MegCC 只支持 mge 模型作为输入,其他模型格式可以考虑转换到 ONNX,然后通过 mgeconvert 进行模型格式转换。

编写 Json 文件

json模板如下:

{
    "@dump_dir":"[Required], specify the directory where the output kernel and model are stored",
    "dump_dir":"./batch_dump/",
    "models":[
        {
            "@model_name":"[Optional], specify the name of the tiny model to be generated",
            "model_name":"det_nchw44",
            "@model_path":"[Required], specify the input model path. `mge' and `emod' formats are supported.",
            "model_path":"path/to/model.mge",
            "@input_shape_str":"[Optional], modify the input shape",
            "input_shape_str":"data=(1,1,384,288):data=(1,1,288,384)",
            "@enable_nchw44":"[Optional], whether to enable nchw44 optimization, default false",
            "enable_nchw44":true,
            "@enable_nchw44_dot":"[Optional], whether to enable nchw44 dot optimization for int8, default false",
            "enable_nchw44_dot":false,
            "@add_nhwc2nchw_to_input":"[Optional], add nhwc2nchw dimshuffle to input",
            "add_nhwc2nchw_to_input":false,
            "@mgb_fuse_kernel":"[Optional], fuse mgb kernel as possible",
            "mgb_fuse_kernel":false,
            "@enable_compress_fp16":"[Optional], whether to enable the optimization of using float16 storage to compress the model size",
            "enable_compress_fp16":false,
            "@enable_nchw88":"[Optional], whether to enable nchw88 optimization, default false",
            "enable_nchw88":false,
            "@enable_ioc16":"[Optional], whether to enable optimization using float16 calculation, default false",
            "enable_ioc16":false
        },
        {
            "model_name":"pf_nchw44",
            "model_path":"path/to/another_model.emod",
            "input_shape_str":"data=(1,1,112,112)",
            "enable_nchw44":true
        }
    ],
    "@cv":"[Optional], specify the cv operator used in non-models (e.g. in pre and post processing)",
    "cv":{
        "transpose":["ui8"],
        "roicopy":["ui8"],
        "rotate":["ui8"],
        "flip":["ui8"],
        "resize_linear":["ui8", "f32"],
        "warp_affine_replicate_linear":["ui8"],
        "rgb2bgr":["ui8"],
        "yuv2bgr_nv21":["ui8"],
        "rgb2yuv":["ui8"]
    }
}
  • 设置模型编译之后 dump 的路径,可以在 mgb-to-tinynn 工具中通过 --dump 参数进行 override。

  • Json 文件中需要指定使用 mgb-to-tinynn 编译的模型名称,模型的路径,以及模型的输入数据,以及一些优化参数等

    • 如果部署的实际情况中需要多个模型组成 pipline,可以指定多个模型
    • 如果一个模型在实际推理过程中可能需要多种输入 shape,需要分别在 input_shape_str 中指定,并用 : 分割开。
    • 支持 enable_nchw44 和 enable_nchw44_dot 两个优化选项,enable_nchw44 为 true 表示,优化模型推理中 Tensor layout 为 NC4HW4enable_nchw44_dot 为 true 表示,优化模型推理中 Tensor layout 为 NC4HW4,并且在推理过程中使用 ArmV8.2 dot 指令进行推理加速
    • 开启enable_ioc16优化选项,可以使用float16进行float32模型的计算,可提升推理性能,代价是损失一些精度。通常需要同时开启enable_nchw88选项
  • 另外为了方便用户集成时候使用 cv 算子进行模型的前后处理,可以在这个 Json 文件中指定需要用到的 cv 算子的名称以及对应的数据类型。MegCC 支持的 cv 算子 列表

模型编译

编译模型目前可以使用 mgb-to-tinynn 这个可执行文件完成编译,也可以使用 Release 包里面的现成脚本 ./script/ppl_gen.sh 进行编译。

使用现成脚本进行模型编译(推荐)

Release 包中的 script 目录下面有一个 ppl_gen.sh 的文件,直接执行:

./script/ppl_gen.sh ./bin/mgb-to-tinynn ./example/mobilenet.json mobilenet_gen --arm64

./script/ppl_gen.sh 这个脚本将执行模型编译,并把 Runtime 需要的资源一同打包在一个压缩包中,方便后续 Runtime 的编译,解压这个压缩包将得到:

├── build runtime build 的路径
├── immigration generalIntrinsic 头文件
│   └── include
├── kern 模型 kernel 文件包括cv 算子
├── mobilenet.json 模型dump所用的配置文件
├── model 模型
│   └── mobilenet_nchw44.tiny
├── model_info 模型输入信息
│   └── mobilenet_nchw44.tiny.txt
├── ppl_build.sh
├── runtime runtime 源码
│   ├── CMakeLists.txt
│   ├── example
│   ├── flatcc
│   ├── include
│   ├── schema
│   ├── script
│   └── src
└── test_model.py 模型对分测试脚本

使用可执行文件编译

使用 mgb-to-tinynn 和上面写好的 Json 文件执行:

mgb-to-tinynn --json=/path/to/json --[target]

成模型编译后,将生成的运行这个模型的 Kernel,和这些 Kernel 绑定的模型文件以及 cv 算子都放在 Json 文件中指定的目录。其中

  • target:可以是 baremetal, arm64, armv7, arm64v7.
  • baremetal: 生成的 Kernel 为单片机可以运行的纯 C 形式
  • arm64v7: 生成能够同时在 Arm64 和 ArmV7 上运行的两套 Kernel 以及他们对应的模型,这时候,模型文件可能会比 target 为 arm64 时候大一点。

如编译 Release 包中的 mobilenet 模型,目标机器是 arm64 机器,运行如下命令

mkdir mobilenet_gen
./bin/mgb-to-tinynn --json=./example/mobilenet.json --arm64 --dump mobilenet_gen

更多 MegEngine 信息获取,您可以:查看文档GitHub 项目,或加入 MegEngine 用户交流 QQ 群:1029741705。欢迎参与 MegEngine 社区贡献,成为 Awesome MegEngineer,荣誉证书、定制礼品享不停。

标签:mgb,enable,MegCC,nchw44,模型,编译,MegEngine,model
From: https://www.cnblogs.com/megengine/p/17532550.html

相关文章

  • dumpbin工具使用-由zlib编译前缀少加预处理器命令引起的异常-扩展
    对zlib使用vs2019编译,没有在预处理器中加前缀命令,导致编译出来的zlib.dll与项目之前使用的函数名不一致,运行报错。报错信息:无法在DLL“libz64”中找到名为“Z_inflateEnd”的入口点。 在z.conf中有以下注释:/**Ifyou*really*needauniqueprefixforalltypesandl......
  • 龙芯电脑编译redis (loongarch)
    1、获取源码源码地址:https://redis.io/download/#redis-downloads 最新版本是7.2,这里用redis5测试,最后一个版本是5.0.14wgethttps://download.redis.io/releases/redis-5.0.14.tar.gztar-zxvfredis-5.0.14.tar.gzcdredis-5.0.14/2、修改源码redis用到了jemalloc库......
  • docker-compose相对路径编译
    可以通过指定context来设置docker-compose的工作路径,../表示当前路径的父路径。 version:'3'services:test:build:context:../dockerfile:apis/app/test/Dockerfileimage:testcontainer_name:testports:-"8000:8000"......
  • 【嵌入式】keil5中使用C,C++混合编译
    5份文件:a.c和a.h和b.cpp和b.h和main.c其中main.c调用b.cpp,b.cpp调用a.c main.c#include"./b.h"intmain(void){ intt=funC(); while(1) { }} b.h#ifndef_B_#define_B_#ifdef__cplusplusextern"C"{#endifintfunC(void);#ifdef__cplusp......
  • VTK - 编译安装
    1.准备工作1-1.Qt(5.15)1-2.CMake(3.26.4)1-3.VTK源码(9.2.6)1-4.CUDA环境(1080ti/cudnn12/cuda536)以上环境自行安装准备2.下载VTK源码 VTK官网下载源码文件  Download|VTK  3.配置CMake配置cuda配置Qt配置VTK库的安装路径 配置编译好的库的安装......
  • TensorRT源码编译
    目录1.参考资料2.源码编译2.1.下载TensorRT2.2.TensorRTOSS编译2.2.1.clone指定分支2.2.2.环境依赖2.2.3.编译附1.安装指定版本的cudatoolkit2.安装指定版本的cudnn1.参考资料tensorrt编译https://zhuanlan.zhihu.com/p/346307138tensorrt相关指南https://zhuanlan.zhihu.c......
  • 解决Flutter编译一直显示Running Gradle task 'assembleDebug'
    该问题由Gradle的Maven仓库在国外访问受限引起,使用阿里云的镜像仓库地址替代解决1.修改FlutteSDK目录下的Flutter打包配置文件flutter.gradle一般位于flutter\packages\flutter_tools\gradle\flutter.gradle1buildscript{repositories{//google()......
  • vscode 连接 wsl2 下 linux 配置纯 clang 编译调试环境
    安装clang和lldb本人为ArchLinux,执行命令sudopacman-Sclanglldbvscode插件vscode安装clangd和codelldb(调试用)插件,其中codelldb插件建议手动安装,官方下载连接:codelldb-linux.vsix。下载好后移进文件夹中,用vscode打开,右键该文件安装扩展即可。配置文......
  • 编译安装openGauss并用GDB进行调试
    编译安装openGauss并用GDB进行调试惜月夜于2021-06-2818:15:07发布1810收藏2分类专栏:openGauss文章标签:数据库版权openGauss专栏收录该内容1篇文章0订阅订阅专栏编译安装openGauss并用GDB进行调试关于编译opengauss,然后怎么去调试它,不知道花了多长时间.本来想着用......
  • java动态编译
        packagesrc;importjava.io.IOException;importjava.io.InputStream;importjava.io.InputStreamReader;importjava.io.BufferedReader;importjavax.tools.JavaCompiler;importjavax.tools.ToolProvider;publicclassDemo01{ publicstaticvoidm......