B站运行YOLOv8n视频demo:https://www.bilibili.com/video/BV1dc411J71N
文章目录
一、系统基本设置
1. 软件换源
# 做个备份
sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak
# 编辑文件内容 把文件里的内容全部替换成下面的清华源
sudo vim /etc/apt/sources.list
# 这个时候你会发现更新速度很快很快
sudo apt-get update # apt的资源列表,没有真正的对系统执行更新
sudo apt-get upgrade # 把本地已安装的软件,与刚下载的软件列表里对应软件进行对比,如果发现已安装的软件版本太低,就会提示你更新。
换成下面的源
deb [arch=arm64] https://mirrors.ustc.edu.cn/ubuntu-ports/ focal main restricted universe multiverse
# deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ focal main main restricted universe multiverse
deb [arch=arm64] https://mirrors.ustc.edu.cn/ubuntu-ports/ focal-updates main restricted universe multiverse
# deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ focal-updates main restricted universe multiverse
deb [arch=arm64] https://mirrors.ustc.edu.cn/ubuntu-ports/ focal-backports main restricted universe multiverse
# deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ focal-backports main restricted universe multiverse
deb [arch=arm64] https://mirrors.ustc.edu.cn/ubuntu-ports/ focal-security main restricted universe multiverse
# deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ focal-security main restricted universe multiverse
在更新源时若遇到无法对目录 /var/lib/apt/lists/ 加锁
是因为上一次更新源的时候非常规中断导致的,解决方法如下:
$ sudo rm /var/lib/apt/lists/lock
2. 安装ssh
安装ssh
sudo apt-get install openssh-server
启动服务(22.04不用启动)
/etc/init.d/ssh start
接下来即可尝试连接
ssh 用户名@IP
3. jtop安装
sudo apt-get install python3-pip
sudo -H pip3 install -U jetson-stats
# 需要reboot
jtop
# 所有预装依赖版本
sudo jetson_release
4. 模式切换(可选)
切换至命令行模式可显著降低内存使用,提升后期深度学习模型的推理速度,但非必须项。
# 切换至命令行模式
sudo systemctl set-default multi-user.targetMM
sudo reboot
# 切换成图形界面模式:
sudo systemctl set-default graphical.target
sudo reboot
5. cuda+cudnn+TensorRT配置
后来发现镜像自带,无需安装,只需添加环境变量即可,直接跳过安装步骤
# 安装
sudo apt update
sudo apt list --upgradable
sudo apt install nvidia-jetpack
5.1 cuda配置
添加cuda环境变量
# 打开~/.bashrc
sudo vim ~/.bashrc
# 在文本末输入如下代码:
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64
export PATH=$PATH:/usr/local/cuda/bin
export CUDA_HOME=/usr/local/cuda
# 更新环境变量配置
source ~/.bashrc
5.2 cudnn配置
# 复制cudnn文件到cuda目录下
cd /usr/include && sudo cp cudnn* /usr/local/cuda/include
cd /usr/lib/aarch64-linux-gnu && sudo cp libcudnn* /usr/local/cuda/lib64
#修改文件权限,修改复制完的头文件与库文件的权限,所有用户都可读,可写,可执行:
sudo chmod 777 /usr/local/cuda/include/cudnn.h
sudo chmod 777 /usr/local/cuda/lib64/libcudnn*
#重新软链接,这里的8.6.0和8对应安装的cudnn版本号和首数字
cd /usr/local/cuda/lib64
sudo ln -sf libcudnn.so.8.6.0 libcudnn.so.8
sudo ln -sf libcudnn_ops_train.so.8.6.0 libcudnn_ops_train.so.8
sudo ln -sf libcudnn_ops_infer.so.8.6.0 libcudnn_ops_infer.so.8
sudo ln -sf libcudnn_adv_train.so.8.6.0 libcudnn_adv_train.so.8
sudo ln -sf libcudnn_adv_infer.so.8.6.0 libcudnn_adv_infer.so.8
sudo ln -sf libcudnn_cnn_train.so.8.6.0 libcudnn_cnn_train.so.8
sudo ln -sf libcudnn_cnn_infer.so.8.6.0 libcudnn_cnn_infer.so.8
# 更新共享库缓存
sudo ldconfig
5.3 TensorRT配置
【1】TensorRT默认安装位置在/usr/lib/python3.8/dist-packages/
中,若找不到trt, 则先执行以下命令
sudo apt install python3-libnvinfer*
这样再进入上述路径后tensorrt就存在了
nx@nx-desktop:/usr/lib/python3.8/dist-packages$ ls
cv2 numpy tensorrt tensorrt-8.5.2.2.dist-info
输入pip list
后tensorrt也出现了。
【2】若要在虚拟环境中使用tensorrt,由于tensorrt不能被虚拟环境pytorch
中定位使用。因此我们需要软链接一下,运行如下命令:
sudo ln -s /usr/lib/python3.8/dist-packages/tensorrt* /home/nano/anaconda3/envs/pytorch/lib/python3.8/site-packages/
sudo ln -s /usr/lib/python3.8/dist-packages/tensorrt* /home/nx/anaconda3/envs/pytorch/lib/python3.8/site-packages/
测试一下,运行如下指令:
python -c "import tensorrt;print(tensorrt.__version__)"
若出现版本号8.5.2.2,则成功。
5.4 查看环境版本
# cuda版本
nvcc -V
# cdunn版本
cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2
标签:nano,libcudnn,sudo,apt,cuda,orin,so.8,jetson,usr
From: https://blog.csdn.net/python_yjys/article/details/143081894