• 2024-11-12A Method of Setting the LiDAR Field of View in NDT Relocation Based on ROI
    基于ROI的NDT重定位激光雷达视场设置方法期刊:MDPI单位:山东理工大学摘要:在高精度地图自动导航的重定位图中,激光雷达布放和视场选择起到检测车辆相对位置和位姿的作用。当激光雷达视场被遮挡或激光雷达位置错位时,很容易导致重定位丢失或重定位精度低。针对遮挡视场过大时ND
  • 2024-11-01ROLL: Long-Term Robust LiDAR-based Localization With Temporary Mapping in Changing Environments
    开源代码:GitHub-HaisenbergPeng/ROLL:Areal-time,robustLiDAR-inertiallocalizationsystemROLL:Long-TermRobustLiDAR-basedLocalizationWithTemporaryMappinginChangingEnvironmentsROLL:基于LiDAR的长期稳健定位,在不断变化的环境中提供临时测绘摘要:长
  • 2024-10-27A 2-D LiDAR-SLAM Algorithm for Indoor Similar Environment With Deep Visual Loop Closure
      具有深度视觉闭环的室内类似环境的二维LiDAR-SLAM算法A2-DLiDAR-SLAMAlgorithmforIndoorSimilarEnvironmentWithDeepVisualLoopClosure摘要:同步定位与建图(SLAM)是实现机器人智能的关键技术。与摄像头相比,在室内环境下使用光探测和测距(LiDAR)可以实现更高
  • 2024-10-26TRLO: An Efficient LiDAR Odometry with 3D Dynamic Object Tracking and Removal
    arxiv|中科院联合国科大开源TRLO:一种结合3D动态物体跟踪与移除的高效LiDAR里程计【TRLO:AnEfficientLiDAROdometrywith3DDynamicObjectTrackingandRemoval】文章链接:[2410.13240]TRLO:AnEfficientLiDAROdometrywit...项目主页:GitHub-Yaepiii/TRLOTRLO:A
  • 2024-10-24Robust Loop Closure by Textual Cues in Challenging Environments
    arxiv|南洋理工大学开源基于文本线索实现复杂环境中的鲁棒闭环检测【RobustLoopClosurebyTextualCuesinChallengingEnvironments】文章链接:[2410.15869]RobustLoopClosurebyTextualCuesi...开源仓库:GitHub-TongxingJin/TXTLCD:Thisrepositoryisfo...
  • 2024-10-23使用livox mid 70提取特征点过程
    参考链接使用rviz显示bag数据LOAM-Preprocessingloam_livox实现第一版读了一下驱动程序说明书创建了ros环境,创建了demo功能包,创建了类,订阅话题"/livox/lidar"激光雷达数据,不处理直接发布,发布话题"/full"在rviz中查看。说明书首先,览沃ROS驱动程序可以看到广播码说明
  • 2024-10-19强推!首个全面涵盖LiDAR里程计算法的综述(一):LiDAR-Only与LIO算法综述
    该篇文章是对LiDAR里程计(Odometry)的最新进展和挑战进行的全面综述。是首个全面涵盖LiDAR里程计各类方法的综述,填补了之前研究的空白。为了让读者深入了解该项技术,笔者结合自身的一些经验和理解,将拆分成三个部分为大家详细解读,分别为:LiDAR-Only与LIO算法综述(一),多激光与多传感器
  • 2024-10-15回环检测方法
    目录文章目录前言一、传统方法1.ScanContext(IROS2018)2.AFastandRobustLoopDetectionandCorrectionMethodfor3DLidarSLAM(2018sensors)3.RobustPlaceRecognitionandLoopClosinginLaser-BasedSLAMforUGVsinUrbanEnvironments(sensorjournal)
  • 2024-10-12【论文速看】DL最新进展20241011-3D雷达、目标检测、大核CNN
    目录【3D雷达】【目标检测】【CNN】【3D雷达】[ECCV2024]BetterCallSAL:TowardsLearningtoSegmentAnythinginLidar论文链接:https://arxiv.org/pdf/2403.13129代码链接:https://github.com/nv-dvl/segment-anything-lidar文中提出了SAL(Lidar中的任意
  • 2024-10-11ROS1,用C++实现获取激光雷达数据,并使用gazebo测试
    实现步骤构建一个新的软件包,包名叫做lidar_pkg。cdcatkin_ws/src/catkin_create_pkglidar_pkgroscpprospysensor_msgs输入code,打开vscode在软件包中新建一个节点,节点名叫做lidar_node。在节点中,向ROS大管家NodeHandle申请订阅话题/scan,并设置回调函数为
  • 2024-10-03Exercise 5: Field data acquisition and analysis
    Exercise5:FielddataacquisitionandanalysisOctober7,2024IntroductionInthisassignmentyouwillbeusingyourknowledgeonsafetymeasuresandsignalprocessingtoanalyzereal-worlddatacollectedinthefield.Theaimofthisassignmentistoi
  • 2024-09-29【LVIO-SLAM】Mars 实验室研究:FAST-LIO、FAST-LIO2、MLCC、HBA、Livox Camera Calibration
    【LVIO-SLAM】Mars实验室:多传感器融合分享笔记1.小结1.FAST-LIO2.FAST-LIO23.MLCC(Multi-LiDARCalibratedConsistency)4.HBA(HierarchicalBundleAdjustment)5.LivoxCameraCalibration(Livox_camera_calib)6.VoxelMap7.LI-init(LiDAR-InertialInitialization)2.
  • 2024-09-26多传感器融合的解决方法-自动驾驶方向
    多传感器数据融合:GPS、IMU与LiDAR的综合分析在自动驾驶系统中,精确、可靠的定位与感知是确保车辆安全、高效运行的关键。为了实现这一目标,通常需要融合来自多种传感器的数据,包括全球定位系统(GPS)、惯性测量单元(IMU)和激光雷达(LiDAR)。本文将详细介绍如何融合这些传感器的数据,涵
  • 2024-09-16VTD激光雷达(2)——02_OptiX_Lidar
    BRDF公式计算强度,关键是材料表面凹凸不平可以在三维模型中建立;一般是建模是平的,在软件中设置第二章图片有水问题PBR和非PBR的区别
  • 2024-09-08自动驾驶-多传感器融合
    之前在实习,写一点自动驾驶感知方向的知识点目录融合感知目的根据融合的阶段和机制,传感器融合可以分为不同类型:不同融合方法对比1.前融合(数据级融合)2.后融合(目标级融合)3.集中式融合4.分布式融合综合对比根据融合层次的不同可以分为1.数据级融合(低级融合)2.特征
  • 2024-08-21(2-2-2)LiDAR激光雷达传感器感知:点云处理(2)法向量估计(Normal Estimation)+曲面重建(Surface Reconstruction)+配准(Registration)算
    2.2.4 法向量估计(NormalEstimation)算法法向量估计的目的是计算每个点的法向量,用于后续任务如曲面重建和特征提取。常用的法向量估计(NormalEstimation)算法如下所示。1.最小二乘法(LeastSquares)算法最小二乘法(LeastSquares)算法通过最小化点云到法向量的误差来估计法向
  • 2024-08-07基于标定板的lidar到车体的外参标定思路
    基于标定板的lidar到车体的外参标定思路1.什么是lidar到车体的外参?在机器人,自动驾驶等领域,要想载体能够自主导航,那我们就得赋予他们和人类似的能力,就是让他们知道,自己是谁,自己在哪,我们怎么才能去到哪的问题。载体上有很多传感器,各个传感器都是从自己的视角来对周围环境
  • 2024-07-26无人驾驶核心技术简介
    1.1核心技术无人驾驶技术依赖于多种核心技术的协同工作,这些技术共同构建了一个复杂而高效的自动驾驶系统。以下是无人驾驶技术的主要核心技术:1.传感器技术2.人工智能与机器学习3.高精度地图与导航4.车载计算平台与软件系统1.1.1传感器技术传感器技术是无人驾驶技术
  • 2024-06-20【论文阅读】Co-Occ: Coupling Explicit Feature Fusion With Volume Rendering Regularization for Multi-Modal
    论文:https://arxiv.org/pdf/2404.04561v1代码:https://github.com/Rorisis/Co-Occ?tab=readme-ov-fileQ:这篇论文试图解决什么问题?A:这篇论文提出了一个名为Co-Occ的多模态3D语义占据预测框架,旨在解决自动驾驶领域中的3D语义占据预测问题。具体来说,它关注以下几个挑战:
  • 2024-06-18lidar 3D decetion小结
    1.pointnetpointnet++:实现基于点云的分类和语义分割。提出了基于点云的特征提取网络。(https://zhuanlan.zhihu.com/p/336496973)2.VoxelNet:第一篇提出将点云转体素,进行3d检测。https://zhuanlan.zhihu.com/p/3524193163.SECOND:用spconv替换3d卷积,减少计算量。https://zhuanlan
  • 2024-06-17[机载LiCHy系统] 数据采集与处理过程的相关问题
    关键词:LiCHy系统、机载遥感、数据采集与预处理作者:ludwig1860日期:2024.6.17前言:以无比感谢与热爱的心,感谢林科院庞勇老师组采集的LiCHy数据。开展机载植被遥感的学者,可能很少有不知道林科院LiCHy系统的罢。据我盲目估计,这套系统的数据至少支撑了几十甚至上百项研究。自研
  • 2024-05-23[自动驾驶技术]-2 感知系统之传感器功能和网络方案
    1传感器功能自动驾驶系统通常使用多种传感器来实现对车辆周围环境的全面感知,包括摄像头、雷达、激光雷达(LiDAR)、超声波传感器、惯性测量单元(IMU)和全球定位系统(GPS)。以下是我们对这些传感器做分别介绍:1)摄像头(Camera)主要组件包括镜头、图像传感器(通常是CMOS或CCD传感器)和处
  • 2024-03-22论文精读系列文章——Point-LIO: Robust High-Bandwidth Light Detection and Ranging Inertial Odometry
    论文精读系列文章下面是SLAM算法与工程实践系列文章的总链接,本人发表这个系列的文章链接均收录于此论文精读系列文章链接下面是专栏地址:论文精读系列文章专栏文章目录论文精读系列文章论文精读系列文章链接论文精读系列文章专栏前言论文精读系列文章——
  • 2024-03-20相机与激光雷达是怎么标定的?一览行业所有主流的标定工具
    相机与激光雷达是怎么标定的?一览行业所有主流的标定工具相机与激光雷达的标定是很多任务的基础工作,标定精度决定了下游方案融合的上限,因为许多自动驾驶与机器人公司投入了较大的人力物力不断提升,今天也为大家盘点下常见的Camera-Lidar标定工具箱,建议收藏!加V好友:AutoDriverZone,
  • 2024-02-11Eigen中变换矩阵Eigen::Isometry3d T的使用方法(左乘和右乘)
    https://zhuanlan.zhihu.com/p/610439768?utm_id=0 一、基本定义Eigen::Isometry3dT_imu_to_lidar=Eigen::Isometry3d::Identity()转换矩阵本质是一个4*4的矩阵二、操作方法.translation():无参数,返回当前变换平移部分的向量表示(可修改),可以索引[]获取各分量.rotation(