首页 > 编程语言 >笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)

时间:2023-12-28 11:01:17浏览次数:38  
标签:笔帽 训练 笔尖 检测 192 关键点


笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)

目录

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)

1. 前言

2.笔尖笔帽检测方法

(1)Top-Down(自上而下)方法

(2)Bottom-Up(自下而上)方法:

3.笔尖笔帽检测数据集

4.手笔检测模型训练

5.笔尖笔帽检测模型训练

(1)项目安装

(2)准备Train和Test数据

(3)配置文件configs

(4)开始训练

(5)Tensorboard可视化训练过程

6.笔尖笔帽关键点检测模型效果

7.笔尖笔帽关键点检测(推理代码)下载

8.笔尖笔帽关键点检测(训练代码)下载

9.笔尖笔帽关键点检测C++/Android版本

10.特别版: 笔尖指尖检测


1. 前言

目前在AI智慧教育领域,有一个比较火热的教育产品,即指尖点读或者笔尖点读功能,其核心算法就是通过深度学习的方法获得笔尖或者指尖的位置,在通过OCR识别文本,最后通过TTS(TextToSpeech)将文本转为语音;其中OCR和TTS算法都已经研究非常成熟了,而指尖或者笔尖检测的方法也有一些开源的项目可以参考实现。本项目将实现笔尖笔帽关键点检测算法,其中使用YOLOv5模型实现手部检测(手握着笔目标检测),使用HRNet,LiteHRNet和Mobilenet-v2模型实现笔尖笔帽关键点检测。项目分为数据标注,模型训练和Android部署等多个章节,本篇是项目《笔尖笔帽检测》系列文章之Pytorch实现笔尖笔帽检测算法;为了方便后续模型工程化和Android平台部署,项目支持高精度HRNet检测模型,轻量化模型LiteHRNet和Mobilenet模型训练和测试,并提供Python/C++/Android多个版本;

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_指尖笔尖

轻量化Mobilenet-v2模型在普通Android手机上可以达到实时的检测效果,CPU(4线程)约50ms左右,GPU约30ms左右 ,基本满足业务的性能需求。下表格给出HRNet,以及轻量化模型LiteHRNet和Mobilenet的计算量和参数量,以及其检测精度

模型

input-size

params(M)

GFLOPs

AP

HRNet-w32

192×192

28.48M

5734.05M

0.8418

LiteHRNet18

192×192

1.10M

182.15M

0.7469

Mobilenet-v2

192×192

2.63M

529.25M

0.7531

先展示一下笔尖笔帽关键点检测效果:

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖笔帽检测_02

Android笔尖笔帽关键点检测APP Demo体验:


笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖检测_03

  

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_指尖笔尖_04

【尊重原创,转载请注明出处】


更多项目《笔尖笔帽检测》系列文章请参考:

  • 笔尖笔帽检测1:笔尖笔帽检测数据集(含下载链接)
  • 笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)
  • 笔尖笔帽检测3:Android实现笔尖笔帽检测算法(含源码 可是实时检测)
  • 笔尖笔帽检测4:C++实现笔尖笔帽检测算法(含源码 可是实时检测)

 

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖笔帽检测_02


2.笔尖笔帽检测方法

笔尖笔帽目标较小,如果直接使用目标检测,很难达到像素级别的检测精度;一般建议使用类似于人体关键点检测的方案。目前主流的关键点方法主要两种:一种是Top-Down(自上而下)方法,另外一种是Bottom-Up(自下而上)方法;

(1)Top-Down(自上而下)方法

将手部检测(手握笔的情况)和笔尖笔帽关键点检测分离,在图像上首先进行手部目标检测,定位手部位置;然后crop每一个手部图像,再估计笔尖笔帽关键点;这类方法往往比较慢,但姿态估计准确度较高。目前主流模型主要有CPN,Hourglass,CPM,Alpha Pose,HRNet等。

(2)Bottom-Up(自下而上)方法:

先估计图像中所有笔尖笔帽关键点,然后在通过Grouping的方法组合成一个一个实例;因此这类方法在测试推断的时候往往更快速,准确度稍低。典型就是COCO2016年人体关键点检测冠军Open Pose。

通常来说,Top-Down具有更高的精度,而Bottom-Up具有更快的速度;就目前调研而言, Top-Down的方法研究较多,精度也比Bottom-Up(自下而上)方法高。

本项目采用Top-Down(自上而下)方法,使用YOLOv5模型实现手部检测(手握笔检测),使用HRNet进行笔尖笔帽关键点检测;也可以简单理解为,先使用YOLOv5定位手握笔的区域位置,再使用HRNet进行笔尖笔帽精细化位置定位。

本项目基于开源的HRNet进行改进,关于HRNet项目请参考GitHub

HRNet: https://github.com/leoxiaobin/deep-high-resolution-net.pytorch


3.笔尖笔帽检测数据集

项目收集了四个手笔检测数据集和一个笔尖笔帽数据集

  • 手笔检测数据集(Hand-Pen Detection Dataset):共收集了四个:Hand-voc1,Hand-voc2和Hand-voc3,Hand-Pen-voc手笔检测数据集总共约7万张图片;标注格式统一转换为VOC数据格式,手部目标框标注为hand,手握着笔的目标框标注为hand_pen,可用于深度学习手部目标检测模型算法开发
  • 笔尖笔帽关键点检测数据集(Pen-tip Keypoints Dataset):收集了1个数据集:dataset-pen2,标注了手握笔(hand_pen)的目标区域和笔的两端(笔尖和笔帽);数据集分为测试集Test和训练集Train,其中Test数据集有1075张图片,Train数据集有28603张图片;标注格式统一转换为COCO数据格式,可用于深度学习笔尖笔帽关键点检测模型训练。
     

关于笔尖笔帽检测数据集说明,请参考

数据收集和标注是一件十分繁杂且又费时费力的工作,请尊重我劳动成果。


4.手笔检测模型训练

本项目采用Top-Down(自上而下)方法,使用YOLOv5模型实现手部检测(手笔检测),使用HRNet进行笔尖笔帽关键点检测;关于手部检测模型训练,可参考 :

手部关键点检测2:YOLOv5实现手部检测(含训练代码和数据集)


5.笔尖笔帽检测模型训练

 整套工程项目基本结构如下:

.
├── configs              # 训练配置文件
├── data                 # 一些数据
├── libs                 # 一些工具库
├── pose                 # 姿态估计模型文件
├── work_space           # 训练输出工作目录
├── demo.py              # 模型推理demo文件
├── README.md            # 项目工程说明文档
├── requirements.txt     # 项目相关依赖包
└── train.py             # 训练文件

(1)项目安装

项目依赖python包请参考requirements.txt,使用pip安装即可,项目代码都在Ubuntu系统和Windows系统验证正常运行,请放心使用;若出现异常,大概率是相关依赖包版本没有完全对应

numpy==1.21.6
matplotlib==3.2.2
Pillow==8.4.0
bcolz==1.2.1
easydict==1.9
onnx==1.8.1
onnx-simplifier==0.2.28
onnxoptimizer==0.2.0
onnxruntime==1.6.0
opencv-contrib-python==4.5.2.52
opencv-python==4.5.1.48
pandas==1.1.5
PyYAML==5.3.1
scikit-image==0.17.2
scikit-learn==0.24.0
scipy==1.5.4
seaborn==0.11.2
sklearn==0.0
tensorboard==2.5.0
tensorboardX==2.1
torch==1.7.1+cu110
torchvision==0.8.2+cu110
tqdm==4.55.1
xmltodict==0.12.0
pycocotools==2.0.2
pybaseutils==0.9.4
basetrainer

推荐使用Python3.8或Python3.7,更高版本可能存在版本差异问题,项目安装教程请参考(初学者入门,麻烦先看完下面教程,配置好Python开发环境):

  • 推荐使用Python3.8或Python3.7,更高版本可能存在版本差异问题
  • 项目开发使用教程和常见问题和解决方法
  • 视频教程:1 手把手教你安装CUDA和cuDNN(1)
  • 视频教程:2 手把手教你安装CUDA和cuDNN(2)
  • 视频教程:3 如何用Anaconda创建pycharm环境
  • 视频教程:4 如何在pycharm中使用Anaconda创建的python环境

(2)准备Train和Test数据

下载笔尖笔帽关键点检测数据集(Pen-tip Keypoints Dataset):dataset-pen2.zip,然后解压到本地

(3)配置文件configs

项目支持HRNet以及轻量化模型LiteHRNet和Mobilenet模型训练,并提供对应的配置文件;你需要修改对应配置文件的数据路径;本篇以训练HRNet-w32为例子,其配置文件在configs/coco/hrnet/w32_adam_192_192.yaml,修改该文件的训练数据集路径TRAIN_FILE(支持多个数据集训练)和测试数据集TEST_FILE的数据路径为你本地数据路径,其他参数保持默认即可,如下所示:

WORKERS: 8
PRINT_FREQ: 10
DATASET:
  DATASET: 'custom_coco'
  TRAIN_FILE:
    - 'dataset/dataset-pen2/train/coco_kps.json'
  TEST_FILE: 'dataset/dataset-pen2/test/coco_kps.json'
  FLIP: true
  ROT_FACTOR: 45
  SCALE_FACTOR: 0.3
  SCALE_RATE: 1.25
  JOINT_IDS: [0,1]
  FLIP_PAIRS: [ ]
  SKELETON: [ ]

配置文件的一些参数说明,请参考

参数

类型

参考值

说明

WORKERS

int

8

数据加载处理的进程数

PRINT_FREQ

int

10

打印LOG信息的间隔

DATASET

str

custom_coco

数据集类型,目前仅支持COCO数据格式

TRAIN_FILE

List

-

训练数据集文件列表(COCO数据格式),支持多个数据集

TEST_FILE

string

-

测试数据集文件(COCO数据格式),仅支持单个数据集

FLIP

bool

True

是否翻转图片进行测试,可提高测试效果

ROT_FACTOR

float

45

训练数据随机旋转的最大角度,用于数据增强

SCALE_FACTOR

float

1.25

图像缩放比例因子

SCALE_RATE

float

0.25

图像缩放率

JOINT_IDS

list

[ ]

[ ]表示所有关键点,也可以指定需要训练的关键点序号ID

FLIP_PAIRS

list

[ ]

图像翻转时,关键点不受翻转影响的ID号

SKELETON

list

[ ]

关键点连接线的序列列表,用于可视化效果

(4)开始训练

修改好配置文件后,就可以开始准备训练了:

  • 训练高精度模型HRNet-w48或者HRNet-w32
# 高精度模型:HRNet-w32
python train.py  -c "configs/coco/hrnet/w48_adam_192_192.yaml" --workers=8 --batch_size=32 --gpu_id=0 --work_dir="work_space/pen"
# 高精度模型:HRNet-w48
python train.py  -c "configs/coco/hrnet/w32_adam_192_192.yaml" --workers=8 --batch_size=32 --gpu_id=0 --work_dir="work_space/pen"
  • 训练轻量化模型LiteHRNet
# 轻量化模型:LiteHRNet
python train.py  -c "configs/coco/litehrnet/litehrnet18_192_192.yaml" --workers=8 --batch_size=32 --gpu_id=0 --work_dir="work_space/pen"
  • 训练轻量化模型Mobilenetv2
# 轻量化模型:Mobilenet
python train.py  -c "configs/coco/mobilenet/mobilenetv2_192_192.yaml" --workers=8 --batch_size=32 --gpu_id=0 --work_dir="work_space/pen"

下表格给出HRNet,以及轻量化模型LiteHRNet和Mobilenet的计算量和参数量,以及其检测精度AP; 高精度检测模型HRNet-w32,AP可以达到0.8418,但其参数量和计算量比较大,不合适在移动端部署;LiteHRNet18和Mobilenet-v2参数量和计算量比较少,合适在移动端部署;虽然LiteHRNet18的理论计算量和参数量比Mobilenet-v2低,但在实际测试中,发现Mobilenet-v2运行速度更快。轻量化Mobilenet-v2模型在普通Android手机上可以达到实时的检测效果,CPU(4线程)约50ms左右,GPU约30ms左右 ,基本满足业务的性能需求

模型

input-size

params(M)

GFLOPs

AP

HRNet-w32

192×192

28.48M

5734.05M

0.8418

LiteHRNet18

192×192

1.10M

182.15M

0.7469

Mobilenet-v2

192×192

2.63M

529.25M

0.7531

(5)Tensorboard可视化训练过程


训练过程可视化工具是使用Tensorboard,使用方法,在终端输入:


# 基本方法
tensorboard --logdir=path/to/log/
# 例如
tensorboard --logdir="work_space/pen/hrnet_w32_2_192_192_custom_coco_20231027_111203_7951/log"

点击终端TensorBoard打印的链接,即可在浏览器查看训练LOG信息等:

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖检测_06

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖笔帽检测_07

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖关键点检测_08

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_指尖笔尖_09


6.笔尖笔帽关键点检测模型效果

demo.py文件用于推理和测试模型的效果,填写好配置文件,模型文件以及测试图片即可运行测试了;demo.py命令行参数说明如下:

参数

类型

参考值

说明

-c,--config_file

str

-

配置文件

-m,--model_file

str

-

模型文件

target

str

-

骨骼点类型,如hand,coco_person,mpii

image_dir

str

data/image

测试图片的路径

video_file

str,int

-

测试的视频文件

out_dir

str

output

保存结果,为空不保存

threshold

float

0.3

关键点检测置信度

device

str

cuda:0

GPU ID

下面以运行HRNet-w32为样例,其他模型修改--config_file或者--model_file即可

  • 测试图片
python demo.py -c "work_space/pen/hrnet_w32_2_192_192_custom_coco_20231027_111203_7951/w32_adam_192_192.yaml"  -m "work_space/pen/hrnet_w32_2_192_192_custom_coco_20231027_111203_7951/model/model_191_0.8322.pth" --image_dir "data/test_images" --out_dir "output"
  • 测试视频文件
python demo.py -c "work_space/pen/hrnet_w32_2_192_192_custom_coco_20231027_111203_7951/w32_adam_192_192.yaml"  -m "work_space/pen/hrnet_w32_2_192_192_custom_coco_20231027_111203_7951/model/model_191_0.8322.pth"  --video_file "data/video-test.mp4"  --out_dir "output"
  •  测试摄像头
python demo.py -c "work_space/pen/hrnet_w32_2_192_192_custom_coco_20231027_111203_7951/w32_adam_192_192.yaml"  -m "work_space/pen/hrnet_w32_2_192_192_custom_coco_20231027_111203_7951/model/model_191_0.8322.pth" --video_file 0 --out_dir "output"

运行效果:

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖检测_10

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖笔帽检测_11

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_指尖检测_12

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_指尖检测_13

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_指尖检测_14

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖笔帽检测_15


7.笔尖笔帽关键点检测(推理代码)下载

笔尖笔帽关键点检测推理代码下载地址Pytorch实现笔尖笔帽检测算法(推理代码)

资源内容包含:

(1)笔尖笔帽关键点检测推理代码(Pytorch)

  1. 提供YOLOv5手部检测(手握着笔)推理代码(不包含训练代码)
  2. 提供笔尖笔帽关键点检测推理代码demo.py(不包含训练代码)
  3. 提供高精度版本HRNet笔尖笔帽关键点检测(不包含训练代码)
  4. 提供轻量化模型LiteHRNet,以及Mobilenet-v2笔尖笔帽关键点检测(不包含训练代码)
  5. 提供训练好的模型:HRNet-w32,LiteHRNet和Mobilenet-v2模型权重文件,配置好环境,可直接运行demo.py
  6. 推理代码demo.py支持图片,视频和摄像头测试

 如果你需要配套的训练数据集和训练代码,请查看下面部分


8.笔尖笔帽关键点检测(训练代码)下载

笔尖笔帽关键点检测训练代码下载地址: Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)

资源内容包含:手笔检测数据集和笔尖笔帽关键点检测数据集 +笔尖笔帽关键点检测训练和测试代码

(1)手笔检测数据集和笔尖笔帽关键点检测数据集:

  1. 手笔检测数据集:共收集了四个:Hand-voc1,Hand-voc2和Hand-voc3,Hand-Pen-voc手笔检测数据集总共约7万张图片;标注格式统一转换为VOC数据格式,手部目标框标注为hand,手握着笔的目标框标注为hand_pen,可用于深度学习手部目标检测模型算法开发
  2. 笔尖笔帽关键点检测数据集:收集了1个数据集:dataset-pen2,标注了手握笔(hand_pen)的目标区域和笔的两端(笔尖和笔帽);数据集分为测试集Test和训练集Train,其中Test数据集有1075张图片,Train数据集有28603张图片;标注格式统一转换为COCO数据格式,可用于深度学习笔尖笔帽关键点检测模型训练。
  3. 数据集详细说明,请查看《笔尖笔帽检测数据集(含下载链接)》
  4. 数据收集和标注是一件十分繁杂且又费时费力的工作,请尊重我的劳动成果。

(2)笔尖笔帽关键点检测训练和测试代码(Pytorch)

  1. 提供YOLOv5手部检测(手握着笔)推理代码(不包含训练代码)
  2. 提供整套完整的笔尖笔帽键点检测项目工程代码,包含笔尖笔帽关键点检测的训练代码train.py和推理测试代码demo.py
  3. 提供高精度版本HRNet笔尖笔帽关键点检测训练和测试
  4. 提供轻量化模型LiteHRNet,以及Mobilenet-v2笔尖笔帽关键点检测训练和测试
  5. 根据本篇博文说明,简单配置即可开始训练:train.py
  6. 提供训练好的模型:HRNet-w32,LiteHRNet和Mobilenet-v2模型权重文件,配置好环境,可直接运行demo.py
  7. 测试代码demo.py支持图片,视频和摄像头测试

9.笔尖笔帽关键点检测C++/Android版本

  • 笔尖笔帽检测3:Android实现笔尖笔帽检测算法(含源码 可是实时检测)
  • 笔尖笔帽检测4:C++实现笔尖笔帽检测算法(含源码 可是实时检测)

Android笔尖笔帽关键点检测APP Demo体验(下载):


笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖检测_03

  

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_指尖笔尖_04


10.特别版: 笔尖指尖检测

 碍于篇幅,本文章只实现了笔尖笔帽关键点检测;实质上,要实现指尖点读或者笔尖点读功能,我们可能并不需要笔帽检测,而是需要实现笔尖+指尖检测功能;其实现方法与笔尖笔帽关键点检测类似。

下面是成功产品落地应用的笔尖+指尖检测算法Demo,其检测精度和速度性能都比笔尖笔帽检测的效果要好。

如果你需要笔尖+指尖检测算法,可在公众号咨询联系

指尖笔尖Android Demo体检:


指尖笔尖检测Demo01



指尖笔尖检测Demo02


笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖关键点检测_18

笔尖笔帽检测2:Pytorch实现笔尖笔帽检测算法(含训练代码和数据集)_笔尖检测_19

标签:笔帽,训练,笔尖,检测,192,关键点
From: https://blog.51cto.com/u_15764210/9011255

相关文章

  • 手部关键点检测5:C++实现手部关键点检测(手部姿势估计)含源码 可实时检测OpenCV库使用o
    手部关键点检测5:C++实现手部关键点检测(手部姿势估计)含源码可实时检测目录手部关键点检测4:C++实现手部关键点检测(手部姿势估计)含源码可实时检测1.项目介绍2.手部关键点检测(手部姿势估计)方法(1)Top-Down(自上而下)方法(2)Bottom-Up(自下而上)方法:3.手部关键点检测模型(1)手部......
  • 手部关键点检测4:Android实现手部关键点检测(手部姿势估计)含源码 可实时检测
    目录1.前言2.手部关键点检测(手部姿势估计)方法(1)Top-Down(自上而下)方法(2)Bottom-Up(自下而上)方法:3.手部关键点检测模型训练4.手部关键点检测模型Android部署(1)将Pytorch模型转换ONNX模型(2)将ONNX模型转换为TNN模型(3)Android端上部署模型(4)Android测试效果 (5)运行APP闪退:dlop......
  • 人工智能生成文本检测在实践中使用有效性探讨
    人工智能辅助撰写文章的技术现在无处不在!ChatGPT已经解锁了许多基于语言的人工智能应用程序,人工智能在任何类型的内容生成中的使用都已经达到了以前前所未有的高度。在诸如创意写作之类的工作中,人们被要求创造自己的内容。但是由于人工智能在这些任务中的普及和有效性,很人工智能......
  • 基于深度学习网络的美食检测系统matlab仿真
    1.算法运行效果图预览  2.算法运行软件版本matlab2022a 3.算法理论概述      美食检测是一项利用计算机视觉技术来识别和分类食物图像的任务。       特征提取是食品检测的核心步骤,其目的是从输入图像中提取出有效的特征,以便于后续的分类。常见的......
  • unity 射线只检测某个层级
    Hithit;//参数1:射线发射的位置-参数2:射线发射的方向-参数3:射线-参数4:发射的距离-参数5:要检测的层-参数6:重写全局 Physics.queriesHitTriggers 以指定默认情况下查询(射线投射、球形投射、重叠测试等)是否命中触发器。对查询使用Ignore可忽略触发碰撞体。if(Physic......
  • 世微AP3266过EMC检测 4-40V 3.6VA 大功率同步降压恒流芯片LED车灯电源驱动线路图
    产品描述   AP3266是一款简单、内置功率管的同步降压恒流芯片,适用于4-40V输入的降压LED恒流驱动芯片。输出功率可达40W,电流3.6A。AP3266可通过调节OVP端口的分压电阻,设定输出空载电压保护,避免高压空载上电瞬间烧坏LED灯。AP3266工作频率固定在130KHZ,具有很好对其他设......
  • 世微AP3266过EMC检测 4-40V 3.6VA 大功率同步降压恒流芯片LED车灯电源驱动线路图
    产品描述   AP3266是一款简单、内置功率管的同步降压恒流芯片,适用于4-40V输入的降压LED恒流驱动芯片。输出功率可达40W,电流3.6A。AP3266可通过调节OVP端口的分压电阻,设定输出空载电压保护,避免高压空载上电瞬间烧坏LED灯。AP3266工作频率固定在130KHZ,具有很好对其他......
  • “自适应特征强化与转导信息最大化的iDNA-ABT深度学习模型:新一代DNA甲基化检测工具”
    iDNA-ABT:advanceddeeplearningmodelfordetectingDNAmethylationwithadaptivefeaturesandtransductiveinformationmaximization会议地点:腾讯会议关键词:作者:期刊:Bioinformatics年份:2022论文原文:补充材料:报告人博客链接:https://blog.csdn.net/qq_48480183/article/de......
  • AI算法在燃气站安全管理中的应用详解,烟火、安全帽、抽烟、打电话检测等
    人工智能(AI)技术在各行各业中的应用越来越广泛,燃气站的安全管理也在逐步引入AI算法。本文将详细介绍AI算法在燃气站安全管理中的应用,包括烟火检测、安全帽识别、抽烟、打电话检测等方面的工作原理。烟火检测是燃气站安全管理中非常重要的一环。AI算法通过图像识别技术,可以实时监测燃......
  • MoveNet:超快且准确的姿态检测模型
    转载:https://zhuanlan.zhihu.com/p/569457464官方说明:https://www.tensorflow.org/hub/tutorials/movenet?hl=zh-cnncnn:https://github.com/FeiGeChuanShu/ncnn_Android_MoveNetgithub:https://github.com/tensorflow/docs-l10n/blob/master/site/zh-cn/hub/tutorials/movene......