首页 > 其他分享 >基于AidLux的自动驾驶智能预警应用方案

基于AidLux的自动驾驶智能预警应用方案

时间:2023-07-10 15:44:06浏览次数:41  
标签:img AidLux 预警 驾驶 seg 640 shape unpad new

### 1. 自动驾驶感知算法及AidLux相关方案介绍

#### 1.1自动驾驶

自动驾驶汽车,又称无人驾驶车、电脑驾驶车、无人车、自驾车,是一种需要驾驶员辅助驾驶或者完全不需要操控的车辆。作为自动化载具,自动驾驶汽车可以不需要人类操作即能感知环境及导航。

#### 1.2 自动驾驶系统的组成部分

![](https://aidlux.oss-cn-beijing.aliyuncs.com/imgs/组成118820049378321210361688971088532084678.jpg)

#### 1.2.1 环境感知系统

![](https://aidlux.oss-cn-beijing.aliyuncs.com/imgs/组成235618057665677183281688971100303237330.jpg)

#### 1.2.2 决策系统

![](https://aidlux.oss-cn-beijing.aliyuncs.com/imgs/组成-决策71534236216834437481688971110510068978.jpg)

#### 1.3 安卓端部署平台AidLux

AidLux平台可快速部署在ARM64位智能设备上,手机也能变成边缘计算设备,当服务器使用、做测试、做练习。后续换设备落实实际项目,直接迁移,不需要重复开发。

![](https://aidlux.oss-cn-beijing.aliyuncs.com/imgs/aidlux285913261120273509441688971146518869752.jpg)

### 2. 基于YOLOP的全景感知系统讲解与实战应用

#### 2.1 YOLOP算法介绍

YOLOP能同时处理目标检测、可行驶区域分割、车道线检测三个感知任务,并速度优异,保持较好精度进行工作,代码开源。它是华中科技大学--王兴刚团队在全景感知方面提出的模型。

![](https://aidlux.oss-cn-beijing.aliyuncs.com/imgs/YOLOP结构77140786917949811851688971164430852722.jpg)

模型结构包括1个encoder+3个分离的decoder,其中encoder包括backbone和neck,3个decoder分别完成车辆检测、车道线检测、可行驶区域分割任务

encoder:主干网络(CSPDarknet),和neck结构(SPP+FPN)

decoder:1个检测头和2个分割,两个分割头都是使用FPN的最底层特征图(w/8,h/8,256)作为输入,进行3次最近邻上采样,最终输出(W, H, 2)的特征图。

#### 2.2 AutoDL云端YOLOP模型训练

#### 2.2.1 下载BDD100K数据集

![](https://aidlux.oss-cn-beijing.aliyuncs.com/imgs/bdd数据集2572766858304428261688971174028546584.jpg)

#### 2.2.2 将项目和数据集上传到AutoDL平台

![](https://aidlux.oss-cn-beijing.aliyuncs.com/imgs/autodl平台30575302301909131181688971189690720539.jpg)

#### 2.2.3 训练YOLOP

执行命令:pip install -r requirements.txt安装依赖包

单GPU训练:

```python
python tools/train.py
```

多GPU训练:

```python
python -m torch.distributed.launch --nproc_per_node=N tools/train.py #N:GPU数量
```

推理

```python
python tools/demo.py --weights weights/End-to-end.pth --source inference/videos
```

![](https://aidlux.oss-cn-beijing.aliyuncs.com/imgs/推理temp66545881907311328981688971247134111880.jpg)

### 3. 智能预警在AidLux平台上的部署与应用

#### 3.1 YOLOP模型onnx转换部署

**1.使用课程代码转换为onnx**

执行命令:

```python
python export_onnx.py --height 640 --width 640
```

执行完成后,会在weights文件夹下生成转换成功的onnx模型

onnx转换核心api:

```python
x = torch.onnx.export(model, # 网络模型
torch.randn(1, 3, 224, 224), # 用于确定输入大小和类型,其中的值可以是随机的。
export_onnx_file, # 输出onnx的名称
verbose=False, # 是否以字符串的形式显示计算图
input_names=["input"], # 输入节点的名称,可以是一个list
output_names=["output"], # 输出节点的名称
opset_version=10, # onnx支持使用的operator set
do_constant_folding=True, # 是否压缩变量
# 设置动态维度, 此处指明Input节点的第0维度可变,命名为batch_size
dynamic_axes={"input":{0: "batch_size", 2:"h", 3: "w"}, "output": {0: "batch_size"}}
)
```

**2. AidLux模型转换工具-AIMO**

AI Model Optimizer--AIMO, 是一个简单、快速、精度损失小的模型转换平台。

AIMO旨在帮助用户能够在边缘端芯片上无精度损失的快速迁移、部署和运行各种机器学习模型。

平台地址:http://117.176.129.180:21115/

体验账号:AIMOTC001

账号密码:AIMOTC001

![](https://aidlux.oss-cn-beijing.aliyuncs.com/imgs/AIMOT62789510371980783461688971217403615063.jpg)

3.2 YOLOP模型在AidLux上部署和应用

**3.2.1 AidLux简介**

AidLux是一个构建在ARM硬件上,基于创新性跨Android/鸿蒙+Linux融合系统环境的智能物联网(AIOT应用开发和部署平台)。

AidLux软件使用非常方便,可以安装在手机、PAD、ARM开发板等边缘设备上,而且使用AidLux开发的过程中,既能支持在边缘设备的本机开发,也支持通过web浏览器访问边缘端桌面进行开发。

各大应用商城都能下载AidLux,在手机商城搜索、下载安装AidLux。

**3.2.2 连接AidLux**

> 将手机的wifi网络和电脑的网络连接到一起,打开安装好的手机上的AidLux软件,点击第一排第二个Cloud_ip。手机界面上会跳出可以在电脑上登录的IP地址,在电脑的浏览器上,随便出入一个IP,
>
> 即可将手机的系统投影到电脑上,连接上后就可以利用手机的算力进行模型推理了。

![](https://aidlux.oss-cn-beijing.aliyuncs.com/imgs/aidlux手机daunt31720688379744503491688971263568600489.jpg)

**3.2.3 上传项目代码到AidLux**

1.点击文件浏览器,打开文件管理页面

2.找到home文件夹,并双击进入此文件夹

3.点击右上角往上的箭头“upload”,再选择Folder,将前面YOLOP的文件夹上传到home文件夹内。(也可以直接将文件夹拖进目录下。)

#### 3.2.4 安装环境

1.打开终端,切换到项目目录

2.执行命令:pip install -r requirements.txt安装依赖环境

3.安装pytorch、torchvision、onnxruntime

```python
pip install torch == 1.8.1==0.9.0 -i https://pypi.mirrors.ustc.edu.cn/simple/
pip install onnxruntime -i https://pypi.mirrors.ustc.edu.cn.simple/
```

4 运行demo.py

验证推理效果,执行命令:

```python
python tools/demo.py --source inference/images
```

#### 3.3 智能预警系统代码实战

智能预警系统包含3个任务:

目标检测,可行驶区域检测,车道线检测

传感器:前视相机

目标检测任务:检测车辆

可行驶区域检测:主要是hi检测可以行驶的区域,为自动驾驶提供路径规划辅助

车道线检测:一种环境感知应用,目的是通过车载相机或激光雷达来检测车道线。

**智能预警流程**

**1.输入**

读取视频图像作为输入,图像尺寸1920*1080

**2.预处理**

2.1 将输入尺寸1920*1080 resize + padding到640*640

2.2 归一化

2.3 640*640*3 --> 1*3*640*640

**3. 使用onnx模型进行推理**

读取模型-->准备数据-->推理

得到det_out,da_seg_out, ll_seg_out,shape分别为:(1,n,6) (1,2,640,640) (1,2,640,640)

**4.后处理**

4.1 将检测结果,可行驶区域检测结果,车道线检测结果,合并到一张图像上,分别用不同的颜色标记出来

4.2 将检测的帧数,帧率,车辆数等信息显示在图像上

**5.输出**

获取最终融合的图像,并保存成视频,图像尺寸、帧率、编码是原视频尺寸、帧率和编码。

**完整的预警代码**

```python
import cv2
import time
import torch
import numpy as np
import onnxruntime as ort
from PIL import Image, ImageDraw, ImageFont
from lib.core.general import non_max_suppression

onnx_path = "weights/yolop-640-640.onnx"


def resize_unscale(img, new_shape=(640, 640), color=114):
shape = img.shape[:2] # current shape [height, width]
if isinstance(new_shape, int):
new_shape = (new_shape, new_shape)

canvas = np.zeros((new_shape[0], new_shape[1], 3))
canvas.fill(color)
# Scale ratio (new / old) new_shape(h,w)
r = min(new_shape[0] / shape[0], new_shape[1] / shape[1])

# Compute padding
new_unpad = int(round(shape[1] * r)), int(round(shape[0] * r)) # w,h
new_unpad_w = new_unpad[0]
new_unpad_h = new_unpad[1]
pad_w, pad_h = new_shape[1] - new_unpad_w, new_shape[0] - new_unpad_h # wh padding

dw = pad_w // 2 # divide padding into 2 sides
dh = pad_h // 2

if shape[::-1] != new_unpad: # resize
img = cv2.resize(img, new_unpad, interpolation=cv2.INTER_AREA)

canvas[dh:dh + new_unpad_h, dw:dw + new_unpad_w, :] = img

return canvas, r, dw, dh, new_unpad_w, new_unpad_h # (dw,dh)


def cv2AddChineseText(img, text, position, textColor=(0, 0, 255), textSize=10):
if (isinstance(img, np.ndarray)): # 判断是否OpenCV图片类型
img = Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))
# 创建一个可以在给定图像上绘图的对象
draw = ImageDraw.Draw(img)
# 字体的格式
fontStyle = ImageFont.truetype(
"simsun.ttc", textSize, encoding="utf-8")
# 绘制文本
draw.text(position, text, textColor, font=fontStyle)
# 转换回OpenCV格式
return cv2.cvtColor(np.asarray(img), cv2.COLOR_RGB2BGR)


def infer(ori_img, img, r, dw, dh, new_unpad_w, new_unpad_h):
ort_session = ort.InferenceSession(onnx_path)
t0 = time.time()
# inference: (1,n,6) (1,2,640,640) (1,2,640,640)
det_out, da_seg_out, ll_seg_out = ort_session.run(
['det_out', 'drive_area_seg', 'lane_line_seg'],
input_feed={"images": img}
)
seconds = time.time() - t0
fps = "%.2f fps" %(1 / seconds) # 帧率

det_out = torch.from_numpy(det_out).float()
boxes = non_max_suppression(det_out)[0] # [n,6] [x1,y1,x2,y2,conf,cls]
boxes = boxes.cpu().numpy().astype(np.float32)
if boxes.shape[0] == 0:
print("no bounding boxes detected.")
return None

# scale coords to original size.
boxes[:, 0] -= dw
boxes[:, 1] -= dh
boxes[:, 2] -= dw
boxes[:, 3] -= dh
boxes[:, :4] /= r
print(f"detect {boxes.shape[0]} bounding boxes.")

img_det = ori_img[:, :, ::-1].copy()
for i in range(boxes.shape[0]):
x1, y1, x2, y2, conf, label = boxes[i]
x1, y1, x2, y2, label = int(x1), int(y1), int(x2), int(y2), int(label)
img_det = cv2.rectangle(img_det, (x1, y1), (x2, y2), (0, 255, 0), 2, 2)

# select da & ll segment area.
da_seg_out = da_seg_out[:, :, dh:dh + new_unpad_h, dw:dw + new_unpad_w]
ll_seg_out = ll_seg_out[:, :, dh:dh + new_unpad_h, dw:dw + new_unpad_w]

da_seg_mask = np.argmax(da_seg_out, axis=1)[0]
ll_seg_mask = np.argmax(ll_seg_out, axis=1)[0]

color_area = np.zeros((new_unpad_h, new_unpad_w, 3), dtype=np.uint8)
color_area[da_seg_mask == 1] = [0, 255, 0]
color_area[ll_seg_mask == 1] = [0, 0, 255]
color_seg = color_area

return img_det, boxes, color_seg, fps


def main(source, save_path):
cap = cv2.VideoCapture(source)
width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) # 获取视频的宽度
height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) # 获取视频的高度
fps = cap.get(cv2.CAP_PROP_FPS) #
fourcc = cv2.VideoWriter_fourcc(*"mp4v")
#fourcc = int(cap.get(cv2.CAP_PROP_FOURCC)) # 视频的编码
#定义视频对象输出
writer = cv2.VideoWriter(save_path, fourcc, fps, (width, height))

# 检查是否导入视频成功
if not cap.isOpened():
print("视频无法打开")
exit()

frame_id = 0
while True:
ret, frame = cap.read()
if not ret:
print("视频推理完毕...")
break

frame_id += 1
# if frame_id % 3 != 0:
# continue
canvas, r, dw, dh, new_unpad_w, new_unpad_h = resize_unscale(frame, (640, 640))
img = canvas.copy().astype(np.float32) # (3,640,640) RGB
img /= 255.0
img[:, :, 0] -= 0.485
img[:, :, 1] -= 0.456
img[:, :, 2] -= 0.406
img[:, :, 0] /= 0.229
img[:, :, 1] /= 0.224
img[:, :, 2] /= 0.225
img = img.transpose(2, 0, 1)
img = np.expand_dims(img, 0) # (1, 3,640,640)

# 推理
img_det, boxes, color_seg, fps = infer(frame, img, r, dw, dh, new_unpad_w, new_unpad_h)
if img_det is None:
continue

color_mask = np.mean(color_seg, 2)
img_merge = canvas[dh:dh + new_unpad_h, dw:dw + new_unpad_w, :]

# merge: resize to original size
img_merge[color_mask != 0] = \
img_merge[color_mask != 0] * 0.5 + color_seg[color_mask != 0] * 0.5
img_merge = img_merge.astype(np.uint8)
img_merge = cv2.resize(img_merge, (width, height),
interpolation=cv2.INTER_LINEAR)

img_merge = cv2AddChineseText(img_merge, f'帧数:{frame_id} 帧率:{fps} 前方共有 {boxes.shape[0]} 辆车...',
(100, 50), textColor=(0, 0, 255), textSize=30)
img_merge = cv2AddChineseText(img_merge, '前方绿色区域为可行驶区域,红色为检出的车道线...',
(100, 100), textColor=(0, 0, 255), textSize=30)

for i in range(boxes.shape[0]):
x1, y1, x2, y2, conf, label = boxes[i]
x1, y1, x2, y2, label = int(x1), int(y1), int(x2), int(y2), int(label)
img_merge = cv2.rectangle(img_merge, (x1, y1), (x2, y2), (0, 255, 0), 2, 2)

# cv2.imshow('img_merge', img_merge)
# cv2.waitKey(0)
writer.write(img_merge)

cap.release() # 释放摄像头
writer.release() # 可以实现预览
cv2.destroyAllWindows()

if __name__=="__main__":
source = 'inference/videos/1.mp4'
save_path = '/home/AidLux_Course/YOLOP/inference/output/test.mp4'
main(source, save_path)
```

代码运行结果:

<iframe src="https://player.bilibili.com/player.html?aid=273245099&bvid=BV1yF411X7Qs&cid=1191271593&page=1" scrolling="no" border="0" frameborder="no" framespacing="0" allowfullscreen="true"></iframe>

### 4.总结

感谢成都阿加犀公司举办的训练营课程,让笔者能够学习自动驾驶的基础知识,以及自动驾驶算法在移动端的部署。

标签:img,AidLux,预警,驾驶,seg,640,shape,unpad,new
From: https://www.cnblogs.com/xhuiblog/p/17541305.html

相关文章

  • apollo+carsim自动驾驶控制模块仿真 windows联系独编译,
    apollo+carsim自动驾驶控制模块仿真windows联系独编译,和carsim联合仿真仿真调试有编译和调试过程文档基于windows平台,所有依赖的库有预编译好的包apollo6.0版本。ID:6699625478961058......
  • 基于LQR控制的无人驾驶轨迹跟踪(横向控制)算法。 使用simul
    基于LQR控制的无人驾驶轨迹跟踪(横向控制)算法。使用simulink模型搭建,并与carsim进行联合仿真。整个联合仿真已经调试完成。具体的控制器设计过程也给出相应的说明。ID:77400623216704421......
  • 基于AidLux的自动驾驶智能预警应用方案
    自动驾驶感知中应用●早期(2013-2014):传统方法+深度学习图像序列候选边框:HOG/Haar+AdaBoost边框分类和修正:CNN可以在较低算力的嵌入式硬件.上实现●中期(2014-2015):完全采用深度学习端对端的物体检测:FasterRCNN速度上进行优化限制输入图像的大小限制最大的目标个数优化......
  • 基于AidLux的自动驾驶智能预警应用方案
    基于AidLux的项目实战之智能预警在AidLux上的部署与应用1.YOLOP模型onnx转换部署YOLOP导出onnx模型执行命令:python3export_onnx.py--height640--width640执行完成后,会在weights文件夹下生成转换成功的onnx模型 2.AidLux模型转换工具AlModelOptimizer通过该工具对onnx......
  • 基于Aidlux的自动驾驶之智能预警部署
    YOLOP能同时处理目标检测、可行驶区域分割、车道线检测三个视觉感知任务,并速度优异、保持较好精度进行工作,代码开源。它是华中科技大学---王兴刚团队,在全景驾驶感知方面提出的模型。这是实操视频:https://www.bilibili.com/video/BV1LX4y1i7mi/?vd_source=4b36e62d12ccafa4305abaa......
  • 汽车虚拟仿真如何让汽车自动驾驶测试更高效?
    自动驾驶汽车一直是驾驶者和汽车工程师的梦想,从汽车诞生以来,不少专家就在预言自动驾驶的真正落地实现的那一天,他们普遍认为制约自动驾驶汽车发展的主要因素是低成本和强大的计算能力,但这两个问题目前在很大程度上其实已经得到解决,但现在完全的自动驾驶仍然难以实现。因为自动驾驶......
  • 《基于AidLux的自动驾驶智能预警应用方案》
    基于AidLux的项目实战之智能预警在AidLux上的部署与应用1.YOLOP模型onnx转换部署YOLOP导出onnx模型执行命令:python3export_onnx.py--height640--width640执行完成后,会在weights文件夹下生成转换成功的onnx模型2.AidLux模型转换工具AlModelOptimizer通过该工具对onnx模型转......
  • 《基于AidLux的自动驾驶智能预警应用方案》
    基于AidLux的项目实战之智能预警在AidLux上的部署与应用1.YOLOP模型onnx转换部署YOLOP导出onnx模型执行命令:python3export_onnx.py--height640--width640执行完成后,会在weights文件夹下生成转换成功的onnx模型 2.AidLux模型转换工具AlModelOptimizer通过该工具对onnx......
  • PPT| 智慧工地信息管理与智能预警平台P60
    PPT总共有60页,受篇幅有限,有需要PPT的同学关注:智慧城市之家......
  • 基于AIidlux平台的自动驾驶环境感知与智能预警
    自动驾驶汽车又称为无人驾驶车,是一种需要驾驶员辅助或者完全不需操控的车辆。自动驾驶分级:自动驾驶系统的组成部分:环境感知系统: 自动驾驶系统架构:  自动驾驶数据集:Aidlux的作用: YOLOP算法: 损失函数:模型训练:数据集: 修改配置文件lib/config/defaul......