首页 > 其他分享 >视觉slam论文、代码汇总

视觉slam论文、代码汇总

时间:2023-10-24 16:05:37浏览次数:34  
标签:汇总 GNSS slam 传感器 鲁棒性 视觉 VINS GVINS



文章目录

  • 2013
  • A Robust and Modular Multi-Sensor Fusion Approach Applied to MAV Navigation
  • 2021
  • GVINS: Tightly Coupled GNSS-Visual-Inertial Fusion for Smooth and Consistent State Estimation
  • 2022
  • IC-GVINS: A Robust, Real-Time, INS-Centric GNSS-Visual-Inertial Navigation System
  • 2023
  • LE-VINS: A Robust Solid-State-LiDAR-Enhanced Visual-Inertial Navigation System for Low-Speed Robots


2013

A Robust and Modular Multi-Sensor Fusion Approach Applied to MAV Navigation

code: https://github.com/milkytipo/MSF_developed 摘要:人们早就知道,融合来自多个传感器的信息用于机器人导航可以提高鲁棒性和准确性。然而,在现场部署前对传感器集成进行精确校准,以及应对传感器中断、不同的测量速率和延迟,使多传感器融合成为一个挑战。因此,大多数情况下,系统不会利用所有可用的传感器信息来换取简单性。例如,在需要机器人从室内过渡到室外的任务中,忽略全球定位系统(GPS)信号是一种的,这些信号在户外就可以免费获得,而只依赖于整个任务中持续可用的传感器信号(如视觉和激光)。当然,这是以牺牲实际部署中的健壮性和准确性为代价的。本文提出了一个通用的框架,称为多传感器-融合扩展卡尔曼滤波器(MSF-EKF),能够处理来自理论上无限数量的不同传感器和传感器类型的延迟、相对和绝对测量,同时允许传感器套件在线自校准。MSF-EKF的模块化允许在操作过程中无缝处理额外的/丢失的传感器信号,同时使用增强了迭代EKF(IEKF)更新的状态缓冲方案,以允许预测的有效重线性化,以接近绝对和相对状态更新的最优线性化点。我们在户外导航实验中演示了我们的方法,使用了配备了GPS接收器以及视觉、惯性和压力传感器的微型飞行器(MAV)。

2021

GVINS: Tightly Coupled GNSS-Visual-Inertial Fusion for Smooth and Consistent State Estimation

code: https://github.com/HKUST-Aerial-Robotics/GVINS

摘要: 众所周知,视觉惯性测程法(VIO)会发生漂移,特别是在长期运行中。在本文中,我们提出了一个基于非线性优化的GVINS系统GVINS,该系统将GNSS原始测量与视觉和惯性信息紧密融合,用于实时和无漂移状态估计。我们的系统旨在在复杂的室内外环境下提供准确的全球6自由度估计,其中GNSS信号可能是间歇性的,甚至完全不可用。为了将全局测量值与局部状态连接起来,提出了一种粗到细的初始化方法,以有效地在线校准转换,并从很短的测量窗口初始化GNSS状态。GNSS代码伪橙色和多普勒频移测量,以及视觉和惯性信息,然后被建模并用于约束一个因子图框架中的系统状态。对于复杂和不GNSS友好的区域,讨论并仔细处理退化情况,以确保鲁棒性。由于紧密耦合的多传感器方法和系统设计,我们的系统充分利用了三种类型的传感器的优点,并能够无缝地应对室内和室外环境之间的过渡,其中卫星丢失和重新获得。我们通过仿真和真实实验对所提出的系统进行了广泛的评估,结果表明,我们的系统大大消除了VIO的漂移,尽管GNSS测量有噪声,但仍保持了局部精度。具有挑战性的室内外和城市驾驶实验验证了GVINS在复杂环境中的可用性和鲁棒性。此外,实验还表明,我们的系统甚至可以从一颗卫星上获得收益,而传统的GNSS算法至少需要四个卫星。

视觉slam论文、代码汇总_visual


视觉slam论文、代码汇总_visual_02

2022

IC-GVINS: A Robust, Real-Time, INS-Centric GNSS-Visual-Inertial Navigation System

code: https://github.com/i2Nav-WHU/IC-GVINS

摘要:视觉导航系统容易受到复杂环境的影响,而惯性导航系统(INS)不受外部因素的影响。因此,我们提出了IC-GVINS,一个强大的、实时的、以INS为中心的全球导航卫星系统(GNSS)-视觉惯性导航系统,以充分利用INS的优势。惯性测量系统对地球自转进行了补偿,以提高高级惯性测量单元(IMUs)的精度。为了提高系统在高动态条件下的鲁棒性,我们采用了精确的INS信息来辅助特征跟踪和地标三角测量。通过GNSS辅助初始化,IMU、可视化和GNSS测量在因子图优化框架内的统一世界框架中紧密融合。在公共车辆和私人机器人数据集中进行了专门的实验,以评估所提出的方法。结果表明,IC-GVINS在复杂环境中表现出优越的鲁棒性和准确性。与最先进的方法相比,所提出的以ins为中心的架构的方法产生了更好的鲁棒性和准确性。

视觉slam论文、代码汇总_惯性导航_03

2023

LE-VINS: A Robust Solid-State-LiDAR-Enhanced Visual-Inertial Navigation System for Low-Speed Robots

摘要:在视觉惯性导航系统(VINS)中,对视觉地标的精确和长距离深度估计具有挑战性。在具有光照变化、移动物体或弱纹理的视觉退化场景中,深度估计可能更加困难,导致鲁棒性和准确性较差。对于低速机器人导航,我们提出了一种固态-lidar增强型VINS(LE-VINS),以提高系统在具有挑战性的环境下的鲁棒性和准确性。来自固态激光雷达的点云被投影到具有惯性导航系统(INS)姿态的视觉关键帧上,以进行深度关联,同时补偿运动失真。提出了一种具有有效平面检查算法的鲁棒深度关联方法来估计地标深度。根据估计的深度,我们提出了一个激光雷达深度因子来构建因子图优化(FGO)中的视觉地标的精确深度测量。视觉特征、激光雷达深度和IMU测量值在FGO框架内紧密融合,以实现最大-a-后验估计。在大规模挑战环境中对低速机器人进行了现场测试。结果表明,与原始VINS相比,所提的左旋叶素显著提高了鲁棒性和准确性。此外,LE-VINS比最先进的激光雷达-视觉-惯性导航系统具有更优越的精度。LE-VINS的性能也优于现有的激光雷达增强方法,得益于鲁棒的深度关联算法和有效的激光雷达深度因子。

视觉slam论文、代码汇总_Visual_04


标签:汇总,GNSS,slam,传感器,鲁棒性,视觉,VINS,GVINS
From: https://blog.51cto.com/u_15699099/8005190

相关文章

  • 2023级HAUT新生周赛题解汇总
    2023级HAUT新生周赛(零)熟悉周赛规则专场:2023级HAUT新生周赛(一)@21级学长专场(张子豪,张鑫,李昊阳):2023级HAUT新生周赛(二)@曹瑞峰专场:2023级HAUT新生周赛(三)@22级学姐专场(杨焱,刘振歌,周欣滢):2023级HAUT新生周赛(四)@牛浩然专场:2023级HAUT新生周赛(五)@陈兰锴专场:......
  • 【计算机视觉】计算机视觉与模式识别关于目标检测的学术速递[10.23]
    检测相关(5篇)【1】Deep-Learning-basedChangeDetectionwithSpaceborneHyperspectralPRISMAdata标题:基于深度学习的星载高光谱棱镜数据变化检测https://arxiv.org/abs/2310.13627变化检测(CD)方法已被应用于光学数据几十年,而使用高光谱数据与精细的光谱分辨率一直很少探索。......
  • pytorch(10.5) Transformer 用到视觉模块
    ViT|VisionTransformer|理论+代码_哔哩哔哩_bilibili   1不用卷积神经网络那些东西(CNN)了全部用Transforme 。2大规模数据训练,小规模数据应用。3效果相当计算训练资源更少。 转换思想224*224像素图像-单个像素(视为一个词token)-16*16个像素图像块patches(......
  • windows安全事件查看及安全事件id汇总
    Win+R打开运行,输入“eventvwr.msc”,回车运行,打开“事件查看器”;或者右键我的电脑-管理-系统工具-事件查看器。在事件查看器中右键单击系统或安全日志,选择筛选当前日志,在筛选器中输入下列事件ID即可。日志路径:C:\Windows\System32\winevt\Logs查看日志:Security.evtx、System.evtx......
  • 综述推荐:视觉计算中的扩散模型
    StateoftheArtonDiffusionModelsforVisualComputinghttps://arxiv.org/pdf/2310.07204v1.pdf视觉计算(VisualComputing)领域,正因生成式人工智能(AI)的出现而快速发展,这为图像、视频和3D场景的生成、编辑和重建打开了前所未有的能力。这些领域中,扩散模型是生成式人工智能架构......
  • 【计算机视觉】计算机视觉与模式识别关于图像分割的学术速递[10.20]
    分割|语义相关(8篇)【1】PuttingtheObjectBackintoVideoObjectSegmentation标题:将对象放回视频对象分割中https://arxiv.org/abs/2310.12982我们提出了Cutie,一个具有对象级内存读取的视频对象分割(VOS)网络,它将内存中的对象表示放回视频对象分割结果中。最近的VOS工作采用自......
  • 深度学习驱动的图像场景分类:窥探视觉智能的未来【图像场景实战】
    图像场景分类是计算机视觉领域的重要任务之一,它涉及将图像分为不同的场景类别,如城市街景、山脉风景、海滩等。本文将介绍基于深度学习的图像场景分类方法,并提供相应的代码实例,展示了深度学习在图像场景分类中的技术深度和应用前景。图像场景分类是计算机视觉中的一项关键任务,对于图......
  • Spring Boot中的过滤器、拦截器、监听器技巧汇总:让你快速成为大神
    环境说明:Windows10+Idea2021.3.2+Jdk1.8+SpringBoot2.3.1.RELEASE前言在Web应用程序中,我们经常需要处理请求和响应。有时,我们需要应用于所有请求和响应的通用逻辑。这就是过滤器、拦截器和监听器的用武之地。它们可以帮助我们在请求和响应被处理之前或之后执行一些通用逻......
  • 基于双目立体视觉的物体体积测量研究_范徐萌.
    基于双目立体视觉的物体体积测量研究[D].中国矿业大学,2021.双目相机的选型:双目平行式:便于标定,运算简单视角较小,如果距离物体较近,且两个相机的基线距离不合适的话会出现盲区,对基线的选择要求较高。双目汇聚式:可以调整相机光轴之间的夹角,不存在盲区问题模型较为复杂,计算量大,不......
  • Spring Boot中的过滤器、拦截器、监听器技巧汇总:让你快速成为大神
    环境说明:Windows10+Idea2021.3.2+Jdk1.8+SpringBoot2.3.1.RELEASE前言在Web应用程序中,我们经常需要处理请求和响应。有时,我们需要应用于所有请求和响应的通用逻辑。这就是过滤器、拦截器和监听器的用武之地。它们可以帮助我们在请求和响应被处理之前或之后执行一些通用逻......