首页 > 其他分享 >深度学习---关键点检测

深度学习---关键点检测

时间:2023-11-10 13:45:55浏览次数:41  
标签:github http 检测 --- https 深度 com 关键点

前面介绍了分类、目标检测、分割以及一些常见模型和实现,这一篇接着介绍关键点检测的相关深度学习方法。已经有一些文章记录了关键点在不同领域的应用,比如:人脸关键点检测综述人体骨骼关键点检测综述,其比较详细介绍了人脸检测和骨骼点检测方面的一些论文,其他还有手势识别、服饰关键点检测等应用,这些大都是按照某一个方面的应用进行整理的,这里我按照个人的一些理解(不一定对,如果有错误或者补充各位大佬可以提醒下)将关键点检测分为基于坐标值回归、实例分割和热力图三个方面,并简单介绍常见的网络模型、数据集和评价指标。

一、基于坐标值回归的方法

这种方式比较直接,通过特征提取后,最后直接利用全连接层回归出关键点的坐标值。

1. Deep Convolutional Network Cascade for Facial Point Detection

Paper: https://sci-hub.hkvisa.net/10.1109/cvpr.2013.446
Code: https://github.com/zhaoyuzhi/Deep-Convolutional-Network-Cascade-for-Facial-Point-Detection
作者提出了拥有三个层级的级联卷积神经网络,最终输出10维向量分别表示人脸的五个关键点信息。


2. Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks(MTCNN)

Paper: https://arxiv.org/ftp/arxiv/papers/1604/1604.02878.pdf
Code: https://github.com/BrightXiaoHan/FaceDetector
MTCNN是一种包含P-Net, R-Net和O-Net三个级联的多任务卷积神经网络,可以同时处理人脸检测和人脸关键点定位问题(人脸位置和关键点存在联系)。

二、基于实例分割的方法

这种方法基于实例分割的思路,每个实例都对应了各自的关键点,避免了多目标关键点检测时的配对问题。

1. Mask R-CNN

Paper: https://arxiv.org/pdf/1703.06870.pdf
Code: https://github.com/facebookresearch/Detectron 姿态估计:https://github.com/Superlee506/Mask_RCNN_Humanpose 服饰关键点检测:https://github.com/Hellcatzm/Mask_RCNN
相比于之前实例分割里面说到的,这里的区别是更换了输出Head,即把mask分支更换为关键点分支即可。

在实现上每一个关键点转换为COCO格式,由3个值组成:横坐标x,纵坐标y,状态v。每一个关键点使用一个56*56的掩码表示,大部分位置为0,仅关键点位置为1。

三、基于热力图的方法

Heatmap将每一个关键点坐标用一个概率图来表示,对图片中的每个像素位置都给一个概率,表示该点属于对应类别关键点的概率。
通常采用的是距离关键点位置越近的像素点的概率越接近1,距离关键点越远的像素点的概率越接近0(如Gaussian等)。

1. Robust Facial Landmark Detection via a Fully-Convolutional Local-Global Context Network(PFLD)

Paper: https://www.ce.cit.tum.de/fileadmin/w00cgn/mmk/Verschiedenes/cvpr2018.pdf
Code: https://github.com/ashxjain/Robust-Facial-Landmark 主页:https://www.ce.cit.tum.de/mmk/cvpr2018/
PFLD处理灰度图,通过堆叠卷积提取局部特征,然后利用空洞大卷积提取全局特征,最后输出的关键点融合了局部和全局特征。

2. Stacked Hourglass Networks for Human Pose Estimation

Paper: https://arxiv.org/abs/1603.06937
Code: https://github.com/zhoujinhai/Stack_HourGlass
提出一种类似沙漏的堆叠网络结构,并利用该网络进行单人姿态估计。


该模型只能对单人进行关键点检测。

3. Associative Embedding: End-to-End Learning for Joint Detection and Grouping

Paper: https://arxiv.org/pdf/1611.05424.pdf
Code: https://github.com/zhoujinhai/pose-ae-train
针对Stacked Hourglass只能检测单人关键点问题,提出了Associative Embedding用于解决多目标关键点配对问题。每一个关键点都对应一个embedding值用于后续配对,配对采用的是Munker算法

四、常见评价指标

1. PEL(Point-to-point Error for Landmark)

PEL验证关键点检测的准确性

2. APE(Average Point-to-Point Errors)

APE衡量点对点误差的分散程度。

其中L表示每幅图像的关键点总数。

3. PCK(Percentage of Correct Keypoints)

PCK指标指正确检测的关键点所占百分比。

其中\(d_{pi}\)表示第p个人第i个关键点真实值和预测值的欧氏距离, \(T_k\)表示给定的阈值,\(d_{p}^{def}\)表示第P个人的尺度因子

4. OKS(Object Keypoint Similarity)

OKS指标受目标检测中的IoU指标启发,用于评估计算真值和预测人体关键点的相似度

其中\(d_{pi}\)表示第p个人第i个关键点真实值和预测值的欧氏距离,\(S_p\)表示当前人的尺度因子,这个值可以用此人真实目标框所占面积的平方根。\(\sigma_i\)表示第i个关键点真实标注的标准差,\(v_{pi}\)表示第p个人的第i个关键点是否可见,\(\delta\)用于统计可见点的个数。

五、相关数据集

1. 2D数据集

LSP(单人14个关键点):http://sam.johnson.io/research/lsp.html
FLIC(单人9个关键点):https://bensapp.github.io/flic-dataset.html
MPII(单人、多人16个关键点):http://human-pose.mpi-inf.mpg.de/
MSCOCO(多人17个关键点):http://cocodataset.org/#download
AI Chanllenge(多人14个关键点):https://challenger.ai/competition/keypoint/subject
Pose Track(多人15个关键点):https://www.posetrack.net/users/download.php

2. 3D数据集

Human3.6Mhttp://vision.imar.ro/human3.6m/description.php
HumanEvahttp://humaneva.is.tue.mpg.de/
Total Capturehttps://github.com/CMU-Perceptual-Computing-Lab/panoptic-toolbox、http://domedb.perception.cs.cmu.edu/dataset.html
JTA Datasethttp://aimagelab.ing.unimore.it/jta、https://github.com/fabbrimatteo/JTA-Dataset
MPI-INF-3DHPhttp://gvv.mpi-inf.mpg.de/3dhp-dataset/
SURREALhttps://www.di.ens.fr/willow/research/surreal/data/
UP-3Dhttp://files.is.tuebingen.mpg.de/classner/up/
DensePose COCOhttps://github.com/facebookresearch/DensePose、https://www.aiuai.cn/aifarm278.html、http://densepose.org/#dataset

六、参考链接:

https://zhuanlan.zhihu.com/p/42968117
https://zhuanlan.zhihu.com/p/187598353
https://www.ejournal.org.cn/CN/10.12263/DZXB.20200725
https://blog.csdn.net/litt1e/article/details/126259175
https://zhuanlan.zhihu.com/p/44418924

标签:github,http,检测,---,https,深度,com,关键点
From: https://www.cnblogs.com/xiaxuexiaoab/p/17822398.html

相关文章

  • 结构型模式-装饰模式
    1什么是装饰模式装饰模式(DecoratorPattern)是一种结构型设计模式,它允许将新功能动态地添加到对象中,通过将对象放入特殊的包装对象中,这样可以在不改变其接口的情况下,对对象的功能进行逐步扩展。在装饰模式中,通常包括以下几个角色:抽象构件(Component)、具体构件(ConcreteComponent)......
  • 2023-11-10 习题选讲
    XLKCSP-S2023A给定一个\(01\)矩阵\(a\)。\(a_{x,y}=1\)则\((x,y)\)有点。求有多少个大小为\(4\)的点集,满足点集中的点刚好为一个正方形的四个顶点。\(n\le500\)发现\(O(n^3)\)不好做,直接bitset压位,\(O(\frac{n^4}{w})\)可以通过。constintN=5e2+......
  • 无涯教程-批处理 - Batch Files – Pipes函数
    管道运算符(|)获取一个命令的输出(默认为STDOUT),并将其定向到另一命令的输入(默认为STDIN),如,以下命令对目录C:\的内容进行排序dirC:\|sort在此示例中,两个命令同时启动,但随后sort命令暂停,直到收到dir命令的输出,sort命令使用dir命令的输出作为输入,然后将其输出发送到句柄1(即S......
  • Vue - 创建 Vue3 项目
    Vue-创建Vue3项目 需搭建项目Vue3+ts+sass1. 创建项目npmcreatevite@latest  2. 安装依赖tyarn  3. 启动项目yarndev  4. 处理其他配置问题1) 打开HelloWorld.vue页面,发现一些报红,报错解决:找到tsconfig.json文件, ......
  • Oracle常用SQL-处理异常锁表
    锁表查询的代码有以下的形式:selectcount(*)fromv$locked_object;select*fromv$locked_object;查看哪个表被锁selectb.owner,b.object_name,a.session_id,a.locked_mode,a.object_idfromv$locked_objecta,dba_objectsbwhereb.object_id=a.object_id;查看是哪个ses......
  • JavaScript的BOM和document编程方法汇总和实例-----前端
    //总结浏览器往服务器发请求          //表单,超链接          //document.location文本重定向          //window.location窗口重定向          //window.open()请求地址       ......
  • 接口自动化&抓包&代理神器-Mitmproxy代理配置详细教程
    Mitmproxy代理配置及接口加解密详细教程官方网站:EventHooks&API(mitmproxy.org)本节目录展示:文章目录Mitmproxy代理配置及接口加解密详细教程客户端下载安装证书mitmproxy代理ios设备启动服务ios设备配置代理使用web抓取代码过滤处理加解密字符替换字符串转二进制字符串转字节......
  • 【机哥】深度学习医学图像分类
    鱼弦:内容合伙人、新星导师、全栈领域创作新星创作者、51CTO(Top红人+专家博主)、github开源爱好者(go-zero源码二次开发、游戏后端架构https://github.com/Peakchen)深度学习在医学图像分类中的应用是指利用深度神经网络来对医学图像进行分类和识别。深度学习算法通过学习大量的医......
  • GPT-4生图未解禁?CMU华人博士新作,大模型GILL能生图能检索,人人可玩
    来源|新智源 ID| AI-eraGPT-4多模态能力恐怕是要再等等了。近日,来自CMU的研究人员全新提出了一种多模态模型GILL。论文地址:https://arxiv.org/pdf/2305.17216.pdf它可以将文本或图像作为prompt,完成多模态对话。具体来说,可以实现生成文本、检索图像、生成新图像。甚至,GILL还能......
  • GPT-4没有意识!但图灵奖得主Bengio等88页论文暗示「天网」迟早降临
    人工智能发展到现在,到底有没有意识?图灵奖得主YoshuaBengio,联合19人团队跨界发表了一篇88页巨作,得出结论:人工智能目前没有意识,但是以后会有。论文地址:https://arxiv.org/pdf/2308.08708.pdf具体来说,目前的人工智能系统都不具备意识,但人类想要构建有意识的人工智能系统,并不存在明显......