边缘设备使用记录--阿加犀AIBox 6490:realsense+yolox部署
前言
由于6490这个板子是有type-c接口的,所以这里准备用Realsense+YOLOx来先简单做一个实时的目标检测的东西出来,这里也用到上一篇文章所提到的Aidlite SDK,通过这个SDK在板子上可以很方便的部署YOLOx模型
具体的代码我放在realtime_detection中了,目前测试下来来看,我把相机的采集频率设置为15Hz,平均每帧推理的耗费时间在20ms左右,理论上可以实现实时的需求。
Realsense SDK + ROS
这里的具体的安装要参考realsense-ros,切记要把SDK的版本和你ROS启动程序的版本对应上,比如我这里用的是ROS1版本的节点,对应的SDK就应该是v2.50.0。
- 这里有个问题,就是我安装好之后启动节点图像是没什么问题的,但是再启动IMU的话就会一直报错。。后来我去另一个电脑下也试了一下,好像IMU模块坏了。。但是reaslsense-viewer打开视图又是能看到的,所以不清楚现在具体是什么问题,不过因为不影响图像的使用,所以这里就先没管
然后这里的ROS还是推荐用鱼香ROS,一键安装,这里还遇到了OpenCV版本冲突的原因,因为板子里自己带个4.9.0,不过我这里因为不会用到4.9.0,所以最后就直接把4.9.0覆盖掉了,后边就不会再有警告了
YOLOx部署
关于这个SDK的一些接口上篇文章写过了,所以这里主要讲一下YOLO部署实际遇到的一些问题
预处理
这里的resize就是之前说的那个思路,挑选scale比较小的一边,然后resize到规定的大小
scale_ = std::min((float)resolution_ / img.cols, (float)resolution_ / img.rows);
ROS_INFO_STREAM("scale: " << scale_);
cv::Size scale_size = cv::Size(img.cols * scale_, img.rows * scale_);
cv::resize(dst_img, dst_img, scale_size, 0, 0, cv::INTER_CUBIC);
然后这里要记得先检查下图像的RGB顺序和通道,不然最后提取是会出错的!我一开始就是这里搞错了,所以提取出来的结果一直很抽象。。
dst_img.convertTo(input_data, CV_32FC3);
后处理
后处理的部分我是参考了autoware,大体的一个思路可以参考我之前的文章autoware.universe源码略读(3.4)–perception:tensorrt_yolox,总体流程就是先提取框框,然后根据置信度排序,然后再做一下nms的步骤就好了,思路还是挺简单的
void YoloX::postProcess(
float * prob, ObjectArray & objects, float scale, cv::Size & img_size) const
{
ObjectArray proposals;
std::vector<int> strides = {8, 16, 32};
std::vector<GridAndStride> grid_strides;
generateGridsAndStride(resolution_, resolution_, strides, grid_strides);
generateYoloxProposals(grid_strides, prob, score_threshold_, proposals);
qsortDescentInplace(proposals);
std::vector<int> picked;
nmsSortedBboxes(proposals, picked, nms_threshold_);
int count = static_cast<int>(picked.size());
objects.resize(count);
for (int i = 0; i < count; i++) {
objects[i] = proposals[picked[i]];
// adjust offset to original unpadded
float x0 = (objects[i].x_offset) / scale;
float y0 = (objects[i].y_offset) / scale;
float x1 = (objects[i].x_offset + objects[i].width) / scale;
float y1 = (objects[i].y_offset + objects[i].height) / scale;
// clip
x0 = std::clamp(x0, 0.f, static_cast<float>(img_size.width - 1));
y0 = std::clamp(y0, 0.f, static_cast<float>(img_size.height - 1));
x1 = std::clamp(x1, 0.f, static_cast<float>(img_size.width - 1));
y1 = std::clamp(y1, 0.f, static_cast<float>(img_size.height - 1));
objects[i].x_offset = x0;
objects[i].y_offset = y0;
objects[i].width = x1 - x0;
objects[i].height = y1 - y0;
}
}
可视化
因为前面得到的其实是检测到的物体对应到的框,所以这里可以再加一点可视化的东西,把物体种类和概率显示在旁边,当然这里其实还是在cv::rectangle
,不过这里是把小框放在大框的角落上
cv::Mat Visualization::drawObjects(const cv::Mat &in, const ObjectArray &objects)
{
if (objects.empty())
{
ROS_WARN_STREAM("Cannot detect any object!");
}
cv::Mat output_img = in;
for (const auto & object : objects) {
// color
float* color_f = _COLORS[object.type];
std::vector<int> color = { static_cast<int>(color_f[0] * 255), static_cast<int>(color_f[1] * 255), static_cast<int>(color_f[2] * 255) };
// text
std::string text = label_map_[object.type] + ":" + std::to_string(object.score * 100) + "%";
cv::Scalar txt_color = ((color_f[0] + color_f[1] + color_f[2]) > 0.5) ? cv::Scalar(0, 0, 0) : cv::Scalar(255, 255, 255);
int font = cv::FONT_HERSHEY_SIMPLEX;
int baseline = 0;
cv::Size txt_size = cv::getTextSize(text, font, 0.4, 1, &baseline);
const auto left = object.x_offset;
const auto top = object.y_offset;
const auto right = std::clamp(left + object.width, 0, output_img.cols);
const auto bottom = std::clamp(top + object.height, 0, output_img.rows);
cv::rectangle(
output_img, cv::Point(left, top), cv::Point(right, bottom), cv::Scalar(0, 0, 255), 3, 8, 0);
// text bg
std::vector<int> txt_bk_color = { static_cast<int>(color_f[0] * 255 * 0.7), static_cast<int>(color_f[1] * 255 * 0.7), static_cast<int>(color_f[2] * 255 * 0.7) };
cv::rectangle(
output_img,
cv::Point(left, top + 1),
cv::Point(left + txt_size.width + 1, top + int(1.5 * txt_size.height)),
cv::Scalar(txt_bk_color[0], txt_bk_color[1], txt_bk_color[2]),
-1
);
cv::putText(output_img, text, cv::Point(left, top + txt_size.height), font, 0.4, txt_color, 1);
}
return output_img;
}
最后实现的效果大概是这样
ROS节点
ROS节点的话这里还是选择以图像的形式把检测结果发布出去了,所以用ROS带的image_transport就好,现在的逻辑每太处理好等待消息,以及等有人订阅的时候再启动节点这些细节,后边争取再完善一下吧
image_transport::ImageTransport it(n);
pub_img = it.advertise("/detection_res", 10);
// process里
sensor_msgs::ImagePtr msg = cv_bridge::CvImage(std_msgs::Header(), "bgr8", output_img).toImageMsg();
pub_img.publish(msg);
总结
到此为止,就实现了一个简单的实时检测的库,其实代码本身不是很难,主要是里面的一些设计细节要考虑得周全一些,以及遇到问题的时还是要耐心来调试
标签:std,6490,img,cast,--,AIBox,color,objects,cv From: https://blog.csdn.net/weixin_45432823/article/details/140662655