type
Post
status
Published
date
Mar 13, 2026
slug
summary
这里主要是介绍一些主流的slam算法及其基本原理。
tags
具身智能
ROS
SLAM
category
知识仓库
icon
password
SLAM 概述
SLAM,全称即时定位和地图构建,它主要的作用就是让机器人在未知的环境中,完成定位(Localization),建图(Mapping)和路径规划(Navigation)。
原理是使用相机、激光雷达、惯性测量单元IMU等传感器来收集环境信息,然后用算法将这些信息融合起来,以确定机器人在未知环境中的位置,并构建一张环境地图。
由于其重要的理论与应用价值,被很多学者认为是实现真正全自主移动机器人的关键。目前,SLAM技术被广泛运用于机器人、无人机、无人驾驶、AR、VR等领域。
.png?table=block&id=321c7b13-c6a7-8001-98a6-e340ddf1de38&t=321c7b13-c6a7-8001-98a6-e340ddf1de38)
激光 SLAM
1. Cartographer
由谷歌开发的一款基于激光雷达和RGB-D相机数据的SLAM算法。可以跨平台使用,支持Lidar、IMU、Odemetry、GPS、Landmark等多种传感器配置,被广泛用于机器人导航、自动驾驶等领域。

2. LIO-SAM
一种新型的激光惯性导航系统,结合了激光雷达和惯性测量单元数据,可以实现机器人的高精度定位和运动轨迹的建图。前端在传统的LIDAR-SLAM基础上,利用卡尔曼滤波和因子图优化算法,将激光雷达和IMU数据融合,进一步提高机器人的定位精度和建图效果。后端加入优化算法,使得机器人的定位精度和建图精度都得到极大提升。

3. LOAM系列
一种成熟的基于激光雷达的SLAM算法,包括LOAM、LOAM-Velodyne、LOAM-LiDAR等。
其中LOAM使用3D激光雷达的数据来进行建图和定位,利用点云数据的特征,如空间聚类、连续性约束等来估计位姿。
LOAM-Velodyne则使用Velodyne激光雷达的3D点云数据,以实现更高精度的地图重建和定位;LOAM-LiDAR采用LiDAR传感器来进行建图和定位,可以高效获取目标物体的三维坐标信息,在一些机器人应用场景具有很大的优势。

视觉 SLAM
1. ORB-SLAM3
当前最优秀的基于特征点的视觉SLAM系统之一,支持单目、双目、RBG-D等多种相机模式,在特征提取、关键帧选取、地图维护、位姿优化等方面进行了优化,并能建立短期、中期和长期的数据关联,使得该系统兼具精度和鲁棒性。
前端视觉里程计基于ORB特征,建立图像帧之间特征点的数据关联,以及图像特征点和地图点之间3D到2D的数据关联,具有较好的鲁棒性和提取效率,回环检测和重定位也基于ORB特征实现。

2. VINS-Fusion
一种基于视觉惯性传感器的视觉SLAM算法。它将视觉和惯性信息进行融合,来提高机器人在未知环境下的定位和导航能力。
前端和后端之间通过一个状态传递机制来交换数据。前端将IMU和图像数据合并,生成一组状态量,然后将其传递给后端进行融合和优化;后端将优化后的状态量传递回前端,以便更新机器人的运动估计。

视觉+激光 SLAM
1. RTAB-Map (Real-Time Appearance-Based Mapping)
核心定义:
一种基于外观投影的分布式实时建图算法。它不仅支持视觉 SLAM(单目、双目、RGB-D),也完美支持激光 SLAM,是目前 ROS 社区中集成度最高、应用最广的框架。
技术架构:
- 前端(多模式里程计): 支持多种里程计输入。你可以用它自带的视觉里程计(基于特征点匹配),也可以接入外部的激光里程计。
- 后端(基于内存管理的闭环检测): 这是它的核心技术。为了在长时间、大场景下保持实时性,它引入了工作内存(Working Memory)和长期内存(Long-term Memory)机制。它会把不常用的地图部分移出内存,只处理当前看到的区域。
- 状态传递: 前端生成的位姿图(Pose Graph)传递给后端,后端利用视觉词袋(Bag-of-Words)进行回环检测,一旦发现闭环,立即使用离散图优化工具(如 g2o 或 GTSAM)修正全局轨迹。
算法特色:
- 跨传感器支持: 它可以同时处理点云和图像,生成 2D 栅格地图、3D 点云图或彩色网格图(Mesh)。
- 强大的重定位: 即使机器人被搬到曾经去过的地方(“绑架问题”),它也能通过视觉特征快速找回自己的位置。
2. Fast-LIVO2 (Fast LiDAR-Inertial-Visual Odometry)
核心定义:
由香港大学火星实验室(Mars Lab)开发,是基于 Fast-LIO2 演进的高性能紧耦合视觉-激光-惯导融合算法。它代表了目前对计算效率优化的最高水平之一。
技术架构:
- 前端(点云与像素并行处理): 激光端通过高效的 ikd-Tree 动态维护地图点云。视觉端则直接利用图像的光流(Optical Flow)或像素灰度信息,无需提取复杂的特征点,极大节省了算力。
- 状态传递(基于误差状态卡尔曼滤波 ESKF): 算法将 IMU 预积分、激光面特征约束和视觉的重投影误差全部耦合进同一个滤波器中。它通过激光提供的精确深度来辅助视觉,使相机在剧烈运动下也不会丢失跟踪。
- 后端(增量式更新): 与传统的全局优化不同,Fast-LIVO2 倾向于增量式地更新局部地图,确保了在嵌入式设备上也能达到极高的频率(如 50Hz 以上)。
算法特色:
- 无需特征提取(Direct Method): 视觉部分采用直接法,在特征点稀少的环境(如白墙、模糊影像)下比 ORB-SLAM 更鲁棒。
- 极高的计算效率: 它的设计初衷就是为了让算法能在算力微弱的无人机或足式机器人(如你的 Go2)上飞速运行。
有关问题,欢迎您在底部评论区留言,一起交流~
- Author:Koreyoshi
- URL:https://tangly1024.com/article/321c7b13-c6a7-8045-8700-f81bda46472d
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!
Relate Posts









