仓库(已更新源码):
https://github.com/FeiYull/tensorrt-alpha
仓库简介:基于CUDA+TensorRT实现深度学习加速,支持前处理、后处理、推理在GPU上运行,支持win/linux系统。本仓库提供深度学习CV领域模型加速部署案例,主流模型前处理、后处理提供cuda加速方法。大部分模型转换流程为:torch->onnx->tensorrt。获取onnx文件以下有两种方式:
- 本仓库提供的网盘直接下载onnx;
- 按照本仓库提供的指令,手动从相关源代码框架导出onnx。
如下图,基于cuda实现yolov8模型前处理,后处理,模型从头到脚运行在gpu上。
yolov8和TensorRT-Alpha精度对齐效果:
yolov8n : Offical( left ) vs Ours( right )
基于tensorrt+cuda实现yolov8前处理、后处理加速:
代码同时支持linux和windows
标签:仓库,onnx,tensorrt,后处理,yolov8,加速 From: https://www.cnblogs.com/feiyull/p/17039343.html