SLAM的精度评价标准
https://blog.csdn.net/qq_36417804/article/details/123889021
二、定性对比
由于上述指标只能在总体上反映算法在某个序列中的精度水平,具体到某段特殊运动或者特殊场景中的轨迹是否会发生漂移则无法展示,因此通常会有一些轨迹图作为辅助的展示。比如当年VINS-MONO[7]的炫技:
以及对于—段序列中轨迹误差统计得到的箱型图:
还有和其他VIO的轨迹精度定性对比(说是定性,但是在下图和上面的箱型图中还是需要定量计算指标,也许放在“定性对比”—节不合适,回头我看看调整调整):
当然也有些不需要参考轨迹直接使用估计轨迹进行不同算法对比的,比如最新的TUM VIE[8]数据集中进行得简单对比:
有些算法也会尝试通过稠密建图质量的定性表示,侧面说明定位精度的准确,比如ORB-SLAM2[9]开篇就放了这个图:
或者在某些场景中的确无有效手段可以拿到参考真值,此时对于视觉为主要输入的SLAM来说可以以精度更高的激光SLAM作为参考。比如赵世博Q师兄和室友王鹏的工作TP-TIO[10],以LOAM作为参考评估VINS、OKVIS、RVIO等在浓烟场景下工作的可靠性(附图并不是在浓烟环境下,浓烟环境下每一个现有视觉SLAM/VIO没一个能跑下来)∶
三、常用轨迹精度的定量评估工具
3.1 EVO[11]
全名为“Python package for the evaluation of odometry and SLAM”,使用Python写的轨迹评估工具,目前在SLAM领域论文中的“使用率”逐渐上升,可以说已经成为了作为SLAMer一定要会用的工具。
没有对应论文,开源代码在此:mirrors / michaelgrupp / evo · GitCode
3.2 慕尼黑工业大学轨迹评估工具
慕尼黑工业大学作为SLAM相关数据集的“高产工厂”,在提供针对各类型传感器、各类型场景的数据集序列之外,还提供了对应的轨迹评估工具,轨迹格式简洁、高效。该工具获取页面:
相关wiki页面在此:mirrors / michaelgrupp / evo · GitCode
3.3 苏黎世大学轨迹评估工具:rpg_trajectory_evaluation
全名为“Toolbox for quantitative trajectory evaluation of vO/VIO”,为文献[12]的开源代码,代码网页链接为:mirrors / uzh-rpg / rpg_trajectory_evaluation · GitCode
暂时就想到这些了,想到其他的后补
参考资料:
[1] Geiger, Andreas, Philip Lenz, and Raquel Urtasun. “Are we ready for autonomousdriving? the kitti vision benchmark suite.” 2012 IEEE conference on computer vision andpattern recognition.IEEE,2012.
[2] Sturm,Jurgen, et al. " A benchmark for the evaluation of RGB-D SLAM systems." 2012IEEE/RSJ international conference on intelligent robots and systems.IEEE,2012.
[3] Burri,Michael, et al.“The EuRoC micro aerial vehicle datasets.” The International Journalof Robotics Research35.10(2016): 1157-1163.
[4] Handa, Ankur, et al.“A benchmark for RGB-D visual odometry, 3D reconstruction andSLAM.” 2014 IEEE international conference on Robotics and automation (ICRA).IEEE,2014.
[5] Rosinol,Antoni, et al. “Kimera: an open-source library for real-time metric-semanticlocalization and mapping.” 2020 lEEE International Conference on Robotics and
Automation (ICRA).IEEE,2020.
[6] Yu, Chao, et al.“DS-SLAM:A semantic visual SLAM towards dynamic
environments.” 2018IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). IEEE,2018.
[7] Qin, Tong,Peiliang Li, and Shaojie Shen.“Vins-mono: A robust and versatile monocularvisual-inertial state estimator.” IEEE Transactions on Robotics34.4(2018):1004-1020.
[8] Klenk, Simon, et al.“TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset.” arXivpreprint arXiv:2108.07329(2021).
[9] Mur-Artal,Raul, and Juan D.Tard6s."Orb-slam2:An open-source slam system formonocular, stereo, and rgb-d cameras."IEEE transactions on robotics33.5(2017): 1255-1262.
[10] Zhao, Shibo, et al.“Tp-tio: A robust thermal-inertial odometry with deep
thermalpoint.” 2020IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS).IEEE,2020.
[11] github.com/MichaelGrupp.….
[12] Zhang, Zichao, and Davide Scaramuzza. “A tutorial on quantitative trajectoryevaluation for visual (-inertial) odometry.” 2018IEEE/RSJInternational Conference onlntelligent Robots and systems (lROS).IEEE,2018.
原文地址
————————————————
版权声明:本文为CSDN博主「隨風£」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_36417804/article/details/123889021