首页 > 其他分享 >CVPR2022| BodyMap可用于换装,Vision Transformers 又立功!

CVPR2022| BodyMap可用于换装,Vision Transformers 又立功!

时间:2022-10-07 17:09:27浏览次数:56  
标签:Transformers 论文 BodyMap 密集 表面 对应 Vision CVPR2022



整理:AI算法与图像处理

CVPR2022论文和代码整理:https://github.com/DWCTOD/CVPR2022-Papers-with-Code-Demo

欢迎关注公众号 AI算法与图像处理,获取更多干货:

CVPR2022| BodyMap可用于换装,Vision Transformers 又立功!_图像处理


大家好,  最近正在优化每周分享的CVPR论文, 目前考虑按照不同类别去分类,方便不同方向的小伙伴挑选自己感兴趣的论文哈

欢迎大家留言其他想法,  合适的话会采纳哈! 求个三连支持一波哈




Updated on : 19 May 2022

total number : 1

BodyMap: Learning Full-Body Dense Correspondence Map

  • 论文/Paper: http://arxiv.org/pdf/2205.09111
  • 代码/Code: None

摘要

人类之间的密集对应承载了强大的语义信息,可用于解决全身理解的基本问题,例如自然场景下表面匹配、跟踪和重建。

在本文中,我们提出了 BodyMap,这是一个新的框架,用于在穿着衣服的人的自然图像和 3D 模板模型的表面之间获得高清全身和连续密集对应关系。对应关系涵盖手和头发等精细细节,同时捕捉远离身体表面的区域,例如宽松的衣服。用于估计这种密集表面对应关系的现有方法 i) 将 3D 身体切割成展开到 2D UV 空间的部分,沿部分接缝产生不连续性,或 ii) 使用单个表面来表示整个身体,但没有处理身体细节。

在这里,我们介绍了一种带有Vision Transformers的新型网络架构,它可以在连续的身体表面上学习精细级别的特征。BodyMap 在各种指标和数据集(包括 DensePose-COCO)上的表现大大优于先前的工作。此外,我们展示了各种应用,包括多层密集布对应、具有新视图合成的神经渲染和外观交换。

BodyMap 模型架构

CVPR2022| BodyMap可用于换装,Vision Transformers 又立功!_编码器_02

给定一个 RGB 图像作为输入,我们首先提取连续的表面嵌入 [1],然后将其馈送到视觉转换器。我们将这些特征与从各自的外观编码器中提取的特征相结合,并将它们馈送到解码器,该解码器以高精度为穿衣人体的每个像素建立密集的表面对应关系。

定性结果

CVPR2022| BodyMap可用于换装,Vision Transformers 又立功!_图像处理_03


CVPR2022| BodyMap可用于换装,Vision Transformers 又立功!_编码器_04

换装应用

CVPR2022| BodyMap可用于换装,Vision Transformers 又立功!_3d_05


标签:Transformers,论文,BodyMap,密集,表面,对应,Vision,CVPR2022
From: https://blog.51cto.com/u_15279692/5734615

相关文章