monodepth2介绍
monodepth2是在2019年CVPR会议上提出的一种三维重建算法,monodepth2是基于monodepth进行了改进,采用的是基于自监督的神经网络,提出了一下三点优化:
- 一个最小重投影误差,用来提升算法处理遮挡场景的鲁棒性
- 一种全分辨率多尺度采样方法,可以减少视觉伪影
- 一种auto-masking loss,用来忽略训练像素中违反相机运动假设的像素点
monodepth2的论文和代码地址
论文地址:https://arxiv.org/abs/1806.01260
代码地址:https://github.com/nianticlabs/monodepth2
自监督原理
神经网络进行训练生成深度图,先获取图像特征,通过特征信息生成视差图,再将视差图转化为深度图。之后通过深度信息生成点云,再将点云还原为二维图像,之后生成的二维图像和原始二维图像进行对比计算损失函数,通过反向传播优化网络减少损失函数,通俗的讲,monodepth2的基本训练原理就是这个。