|
$ p9 A( g2 E* ]" W/ q9 f: J/ K9 Y
以下内容来自小六的机器人SLAM学习圈知识星球每日更新内容
0 r9 H. K7 T% j# A8 O7 q) L# D* D 点击领取学习资料 → 机器人SLAM学习资料大礼
) X# W% e; B5 c2 J #论文# Tightly-coupled Visual-DVL-Inertial Odometry for Robot-based Ice-water Boundary Exploration
$ k+ n k( k' r, G" }. X4 A+ q 论文地址:https://arxiv.org/abs/2303.17005 4 u: ?5 v) T/ c, @, `
’作者单位:罗德岛大学 + l6 Y, [. Y/ I% x7 j9 N9 s( D j" F' H
机器人水下系统,如自主水下机器人(AUV)和遥控潜水器(ROV),是在冰水边界收集生物地球化学数据以促进科学进步的很有前途的工具。然而,状态估计,即定位,对于机器人系统来说是一个众所周知的问题,特别是对于那些在水下旅行的机器人。在本文中,我们提出了一种紧耦合的多传感器融合框架,以提高定位精度,并对传感器故障具有鲁棒性。将视觉图像、多普勒速度测井(DVL)、惯性测量单元(IMU)和压力传感器集成到最新的多状态约束卡尔曼滤波(MSCKF)中进行状态估计。 2 C; O5 ?: j8 a2 @0 d& x
此外,为了进一步提高定位性能,提出了一种新的基于关键帧的状态克隆机制和一种新的DVL辅助特征增强机制。利用冰冻条件下现场采集的数据对该方法进行了验证,并与其他6种不同的传感器融合方案进行了比较。总体而言,启用关键帧和DVL辅助特征增强的结果产生了最好的性能,与总行进距离约为200米的地面真实路径相比,均方根误差小于2米。 7 B' Y2 u( C# f* X! ?/ i. W
+ i! D9 T [6 O
9 }) b* E! E8 U/ R* Z* r! H
% g6 k& x c8 z7 N; N7 J- ^1 m/ R
( g, [2 M9 A' O 以上内容来自小六的机器人SLAM学习圈知识星球每日更新内容 8 A0 d; I5 W8 {9 w
( T; \' \3 a# l* V4 F: n
0 x; C* Z8 F+ i* u! X" H' t$ p9 b( m' d( M: i5 \. Y. G
# r: k: N" B% m4 w! l$ r |