https://blog.csdn.net/demm868/article/details/111087578
向AI转型的程序员都关注了这个号????????????
机器学习AI算法工程 公众号:datayx
因为之前有在做一些规则卡片类的OCR识别任务,就难免会遇到这样的问题:用户上传的照片里卡片的角度是任意的,不规则的,或多或少都会存在不同的倾斜和形变。所以在识别的时候必须要先对其进行矫正再进行检测识别。当时有想到借鉴人脸检测中的关键点回归对卡片的四个角进行回归,但是后来感觉有点麻烦,而且数据有限,如果使用传统的opencv去寻找角点的话实际效果又不太稳定,刚好那段时间v5出来了,突发奇想可以使用v5去做,然后发现效果奇好。
一、数据准备
这里使用银行卡作为示例,其他类型卡片操作一样。首先是使用labelimg对银行卡的四个角度进行标注,将卡片的四个角点当作检测目标,这里需要注意的是,框的标注中心点尽量要对齐角点,因为我们最终要的不是检测框,而是角点的坐标(即检测框的中心点):
标注完后,可以得到voc格式的xml文件,然后就可以用来训练了。
项目代码 获取:
关注微信公众号 datayx 然后回复 yolo 即可获取。
AI项目体验地址 https://loveai.tech
二、v5训练
2.1 准备数据集
首先从github上把yolov5下载下来
https://github.com/ultralytics/yolov5
解压后将以下makeTxt.py和voc_label.py文件拷贝到文件夹中,训练过yolo的同学应该对这两个文件比较熟悉,makeTxt文件是用来划分训练集和测试集,voc_label文件是用来将voc格式转换为coco格式:
makeTxt.py
voc_label.py
然后将刚才标注的数据拷贝到data文件中,格式如下,Annotations存放xml文件,images存放标注图片,然后新建一个point.yaml文件,定义自己的训练数据集,其他的文件可以暂时不用管,按照步骤来后面会自己慢慢产生:
修改模型文件,到mdoels文件夹里,找到yolov5s.yaml,拷贝一份,定义为yolov5s-point.yaml,将里面的nc类别数改为1即可,因为检测任务比较简单,5s模型已经足够了,所以没必要上更大的模型:
OK,配置修改完成。别忘了把官方的模型文件下载下来,放到weights里,用于预训练加载。
三、开始训练
首先对数据集进行划分,同级目录下打开终端,运行makeTxt.py:
训练结束后的权重和训练可视化信息可以在runs文件夹中找到:
四、结果可视化
这里我将runs里面的权重拷贝到外面的weights文件中,将待测试的图片拷贝到inference\images中,运行:
效果还是非常的奈斯。这还只是将角点在原图检测出来,还有后续的操作,需要自己在v5推理后处理那块自己去修改,这里删改的地方太多了,有点乱就不贴上来了。
在后处理阶段,只提取检测框中心点,这才是我们需要的:
得到四个角点的坐标后,就可以用opencv做一个透视变换,得到新纠正后方方正正的图,识别起来就very easy了:
透视变换核心代码如下:
五、可能会遇到的问题
以上效果都是经过调优后得到的结果,实际串联部署起来有很好的鲁棒性,使用过程中有比较多的优化步骤因为文章篇幅的原因没有全部写出来,这里列出一些实际使用中可能还会存在的问题,需要自己去解决:
-
检测框的置信度不高;
-
误检问题,即如果检测出来4个点以上;漏检问题,检测出来低于4个点;
-
图片大角度(0,90,180,270)分类问题,可以再训练一个很小的分类网络做辅助;
-
如果训练的图片卡片角点也是方方正正的,对形变的卡片检测效果并不太好,需要考虑使用更多的数据增强;
-
其他训练tricks调优。
一些后话:该方法对角点明显的数据纠正效果比较好,也比较通用,当然在服务器资源足够的情况下可以考虑,如果在资源缺乏的设备中,使用v5去做就有点奢侈,可以尝试其他更小的模型去做,如果自己的数据场景没有这么复杂也可以使用传统的opencv的方法去将四个角点找出再做变换,可以很大程度上节省资源,不过稳定性可能会差一些。这个方法思想比较简单,主要还是突发奇想,对yolov5的一个扩展应用,如果有更好的纠正方式可以评论分享,相互学习。
标签:文件,卡片,训练,检测,py,角点,顶点,yolo5 From: https://www.cnblogs.com/xiondun/p/17650566.html