首页 > 其他分享 >模型部署 - TensorRT、OpenVINO 和 triton 之间的关系

模型部署 - TensorRT、OpenVINO 和 triton 之间的关系

时间:2024-07-13 11:18:34浏览次数:16  
标签:triton Triton OpenVINO 模型 TensorRT 集成 优化

1. 共同目标 - 深度学习模型部署优化

     这三者都是用于优化和部署深度学习模型的工具和框架, 目标是提高模型在服务端的推理性能。

2. 技术侧重点不同

  • TensorRT侧重于针对Nvidia GPU硬件进行深度学习模型的优化与加速。
  • OpenVINO则针对Inter CPU和FPGA等硬件进行模拟优化。
  • Triton则提供了一个统一的推理服务框架, 可以集成各种硬件后端, 包括NVIDIA GPU,Intel CPU等。

3. 集成协作

       这三者通常会集中在一起使用, 例如, TensorRT可以与Triton集成, 提供GPU加速的推理服务; OpenVINO也可以和Triton集成, 支持CPU推理。

4. 技术选型

     公司可能会根据具体的硬件环境和模型需求, 选择最合适的一种或几种工具的组合来部署和优化深度学习模型。 掌握这三者的使用和集成能力对工程师来说很重要。

   总之, TensorRT,OpenVINO和Triton是当前业界主流的深度学习模型部署优化工具, 他们各有特点, 但在实际应用中常常会结合使用, 需要工程师具备综合运用的能力。

      

标签:triton,Triton,OpenVINO,模型,TensorRT,集成,优化
From: https://www.cnblogs.com/ai-ldj/p/18299857

相关文章

  • autoware.universe源码略读(3.4)--perception:tensorrt_yolox
    autoware.universe源码略读3.4--perception:tensorrt_yoloxOverview结构体预定义TrtYoloXpreprocessdoInferencefeedforwardfeedforwardAndDecodedecodeOutputstensorrt_yolox_nodeyolox_single_image_inference_node总结Overview可以看到,其实在最新版本的autoware......
  • 【OpenVINO™】YOLOv10在CPU上也能实现50+FPS推理—使用OpenVINO C++部署YOLOv10
    ​英特尔发行版OpenVINO™工具套件基于oneAPI而开发,可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,适用于从边缘到云的各种英特尔平台上,帮助用户更快地将更准确的真实世界结果部署到生产系统中。YOLOv10是清华大学研究人员近期提出的一种实时目标检测方法,......
  • 四. TensorRT模型部署优化-quantization(calibration)
    目录前言0.简述1.校准2.calibrationdataset3.calibrationalgorithm4.如何选择calibrationalgorithm5.calibrationdataset与batchsize的关系总结参考前言自动驾驶之心推出的《CUDA与TensorRT部署实战课程》,链接。记录下个人学习笔记,仅供自己参考本次课......
  • 使用 TensorRT C++ API 调用GPU加速部署 YOLOv10 实现 500FPS 推理速度——快到飞起!!
    ​NVIDIA®TensorRT™是一款用于高性能深度学习推理的SDK,包含深度学习推理优化器和运行时,可为推理应用程序提供低延迟和高吞吐量。YOLOv10是清华大学研究人员近期提出的一种实时目标检测方法,通过消除NMS、优化模型架构和引入创新模块等策略,在保持高精度的同时显著降低了......
  • 四. TensorRT模型部署优化-quantization(mapping-and-shift)
    目录前言0.简述1.近10年模型的变化与硬件的发展2.模型量化回顾3.什么是量化4.量化会出现什么问题5.量化的基本原理:映射和偏移6.量化的基本原理:基本术语6.1量化和反量化6.2对称量化和非对称量化6.3量化粒度6.4校准6.5PTQ和QAT7.其他:有关量化学习的激活函数......
  • TensorRT c++部署onnx模型
    在了解一些概念之前一直看不懂上交22年开源的TRTModule.cpp和.hpp,好在交爷写的足够模块化,可以配好环境开箱即用,移植很简单。最近稍微了解了神经网络的一些概念,又看了TensorRT的一些api,遂试着部署一下自己在MNIST手写数字数据集上训练的一个LeNet模型,识别率大概有98.9%,实现用pytor......
  • 【jetson nano】yolov5环境配置tensorrt部署加速
    安装pytorchNano上预装的Jetpack版本为4.6.1,Python为3.6.9,CUDA环境为10.2。在PyTorchforJetson中可以下载不同版本的torch,torch<=1.10.0。1安装torch1.8.0#substitutethelinkURLandwheelfilenamefromthedesiredtorchversionabovewgethttps://nvidia.box.com......
  • 【OpenVINO™】在C#中使用 OpenVINO™ 部署 YOLOv10 模型实现目标
     最近YOLO家族又添新成员:YOLOv10,YOLOv10提出了一种一致的双任务方法,用于无nms训练的YOLOs,它同时带来了具有竞争力的性能和较低的推理延迟。此外,还介绍了整体效率-精度驱动的模型设计策略,从效率和精度两个角度对YOLOs的各个组成部分进行了全面优化,大大降低了计算开销,增强了......
  • pytorch 转 tensorRT 踩的几个小坑_tensorrt engine set up failed
    CSDN搬家失败,手动导出markdown后再导入博客园1、版本不匹配[E][TRT]Layer:Where_51'soutputcannotbeusedasshapetensor.[E][TRT]Networkvalidationfailed.[E]Enginecreationfailed.[E]Enginesetupfailed.这实际是由于pytorch与TensorRT版本不匹......
  • 【OpenVINO™】基于 C# 和 OpenVINO™ 部署 Blazeface 模型实现人脸检测
     前言OpenVINO™C#API是一个OpenVINO™的.Netwrapper,应用最新的OpenVINO™库开发,通过OpenVINO™CAPI实现.Net对OpenVINO™Runtime调用,使用习惯与OpenVINO™C++API一致。OpenVINO™C#API由于是基于OpenVINO™开发,所支持的平台与OpenVINO™完全一......