首页 > 其他分享 >cuda、cudnn、tnesorrt的查看安装

cuda、cudnn、tnesorrt的查看安装

时间:2023-02-22 15:14:00浏览次数:48  
标签:CUDNN python tnesorrt cudnn cuda local usr

1、首先本地查看cuda已安装的版本 11.7
输入命令:【nvcc -V】
输出:
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2022 NVIDIA Corporation
Built on Wed_Jun__8_16:49:14_PDT_2022
Cuda compilation tools, release 11.7, V11.7.99
Build cuda_11.7.r11.7/compiler.31442593_0

1-2、查看cudnn已经安装的版本号 8.5.0
输入命令:【cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2】
输出:
#define CUDNN_MAJOR 8
#define CUDNN_MINOR 5
#define CUDNN_PATCHLEVEL 0
--
#define CUDNN_VERSION (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL)

 

2、通过在运行环境中查看 cuda 以及cudnn的版本号

本机配置环境:
Ubuntu 22.04
cuda 11.6
NVIDIA GeForce RTX 3070
pytorch 1.12.1
python3.9

如果使用conda 创建的环境需要激活相应的环境
进入相应的环境后
输入命令【python】进入python编译器
输出:
Python 3.9.12 (main, Jun 1 2022, 11:38:51)
[GCC 7.5.0] :: Anaconda, Inc. on linux
Type "help", "copyright", "credits" or "license" for more information.
输入命令【import torch】
【print(torch.__version__)】 输出:torch 的版本号:1.12.1+cu116
【print(torch.version.cuda)】输出: 11.6
【print(torch.backends.cudnn.version())】输出:8500

 

Ubuntu安装tensorrt 8.2.5.1,cuda对应的版本有(10.2、11.0~11.7),cudnn对应的适配版本有(cudnn8.4.1及以下,或者cudnn8.2.1)

 

降低cudnn的版本,即将cudnn8.5.0降低至8.4.1


2-1、先删除系统原来的的cudnn
输入命令【sudo rm -rf /usr/local/cuda/include/cudnn.h】
【sudo rm -rf /usr/local/cuda/lib64/libcudnn*】


2-2、解压cudnn-linux-x86_64-8.4.1.50_cuda11.6-archive.tar.xz (下载地址:https://developer.nvidia.com/rdp/cudnn-archive)
输入命令【tar zxvf cudnn-linux-x86_64-8.4.1.50_cuda11.6-archive.tar.xz】

2-3、进入到解压后的文件里
输入命令:
【sudo cp include/cudnn* /usr/local/cuda/include】
【sudo cp lib/lib* /usr/local/cuda/lib64/】
【sudo chmod a+r /usr/local/cuda/include/cudnn*】
【sudo chmod a+r /usr/local/cuda/lib64/libcudnn*】

2-4、验证输入命令:
【cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2】
输出:
#define CUDNN_MAJOR 8
#define CUDNN_MINOR 4
#define CUDNN_PATCHLEVEL 1
--
#define CUDNN_VERSION (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL)

#endif /* CUDNN_VERSION_H */

 


3、安装 tensorrt

/home/cxf/下载/TensorRT-8.2.5.1.Linux.x86_64-gnu.cuda-10.2.cudnn8.2.tar.gz
首先解压该包,并进入解压后的文件
进入环境【conda activate 环境名】
查看python的版本
输出:
bin data doc graphsurgeon include lib onnx_graphsurgeon python samples targets uff

添加环境 【vim ~/.bashrc】
文件最后一行 输入【export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/xxx/environment/TensorRT-8.2.5.1/lib】(本机将TensorRT-8.2.5.1包放在/home/xxx/environment目录下)
【source ~/.bashrc】
分别进入python、graphsurgeon、uff文件夹下安装相应文件(直接pip install 包名),其中进入python文件,安装环境对应的python版本文件

验证
输入【python】
【import tensorrt】
【tensorrt.__version__】

Python 3.9.16 | packaged by conda-forge | (main, Feb 1 2023, 21:39:03)
[GCC 11.3.0] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import tensorrt
>>> tensorrt.__version__
'8.2.5.1'
>>>

标签:CUDNN,python,tnesorrt,cudnn,cuda,local,usr
From: https://www.cnblogs.com/cfancy/p/17144390.html

相关文章

  • 安装Pytorch如何选择CUDA的版本,看这一篇就够了
    CUDA是一个并行计算平台和编程模型,能够使得使用GPU进行通用计算变得简单和优雅。Nvidia官方提供的CUDA库是一个完整的工具安装包,其中提供了Nvidia驱动程序、开发CUDA程......
  • CUDA 教程(一) GPU 编程概述和 CUDA 环境搭建
    前言 本文将带大家了解CUDA编程,学习使用C和Python调用CUDA编程接口,对模型进行推理加速,性能优化。我们将从底层原理开始,带大家了解CUDA的工作机制,一步步掌握CUDA编程。相......
  • Windows10下YOLOv8 TensorRT CUDA加速部署
    前言本文介绍了Windows10下YOLOv8TensorRTCUDA加速部署。 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 ......
  • CUDAbyExample环境搭建
    gitclonehttps://github.com/CodedK/CUDA-by-Example-source-code-for-the-book-s-examples-.git首先是报错nvcc-orayray.cuInfileincludedfrom../common/cp......
  • cuda安装
    因为我不懂瞎整,电脑里装了好多cuda。也不知道哪来的    首先是把那些cuda都删除了有人说:/usr/local/cuda/bin  里面有卸载cuda的,但是我的没有  sudoapta......
  • jetson nvidia上看cuda的 版本
    nvcc-V但是有时候是命令没有找到解决:1. vim~/.brashrc在最后添加两句话exportLD_LIBRARY_PATH=/usr/local/cudaexportPATH=$PATH:/usr/local/cuda/bin注意:cud......
  • PyTorch中使用GPU加速-cuda
    一、CPU和GPU数据相互转换在torch中以下数据结构分为CPU和GPU两个版本:TensorVariable(包括Parameter)(对tensor的封装)nn.Module(包括常用的layer、lossfunc......
  • CUDA变量存储与原子操作
    引入问题Q:为什么GPU函数内定义的变量无法对GPU函数的传入参数进行赋值,而常量可以进行赋值?需要声明,这个问题出现的时候,这个GPU函数的传入参数是通过cudaMalloc声明的全局......
  • CUDA C++ / 并发CUDA流
    计算与传输重叠工作模式CPU与GPU之间交互有两个引擎:内存复制引擎:负责CPU和GPU之间的数据传输。核函数执行引擎:负责CPU向GPU部署核函数任务。这两个引擎是相......
  • detectron2 The detected CUDA version mismatches 错误
    我的报错信息ThedetectedCUDAversion(9.1)mismatchestheversionthatwasusedtocompilePyTorch(11.3).PleasemakesuretousethesameCUDAversions.h......