官方那个文档上有很多中安装方法,这里采用压缩包安装,解压后直接将lib和include文件配置在环境变量里就ok了,对于c++来说是最方便的
首先下载TensorRT:https://developer.nvidia.com/tensorrt
注意安装TensorRT之前要事先装好cuda和cudnn,注意cuda和cudnn的对应版本
下载完成后按照官方教程进行解压,将文件解压到自己想要安装的路径下 https://docs.nvidia.com/deeplearning/tensorrt/install-guide/index.html#installing-tar
我的路径是 /usr/local,因为是系统路径,所以在这个路径下进行操作要使用管理员权限。解压好之后如下图
然后将tensorrt的头文件和库文件加入到环境变量中,配置~/.bashrc文件
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/TensorRT-8.5.3.1/lib
export C_INCLUDE_PATH=$C_INCLUDE_PATH:/usr/local/TensorRT-8.5.3.1/include
export CPLUS_INCLUDE_PATH=$CPLUS_INCLUDE_PATH:/usr/local/TensorRT-8.5.3.1/include
添加完路径后source ~/.bashrc
然后验证安装是否成功,进入到 /usr/local/TensorRT-8.5.3.1/samples/sampleOnnxMNIST路径下,执行
sudo make
编译成功后显示可执行那个文件在如下目录
进入/usr/local/TensorRT-8.5.3.1/bin目录,运行可执行文件sample_onnx_mnist,如果编译和运行过程都没有问题则说明tensorrt安装成功,运行结果如下
无情的摸鱼机器