要約
正確かつ堅牢でリアルタイムの LiDAR ベースのオドメトリ (LO) は、ロボット ナビゲーション、グローバルに一貫した 3D シーン マップの再構築、または安全な動作計画などの多くのアプリケーションにとって不可欠です。
LiDAR センサーは正確な距離測定で知られていますが、不均一で不確実なポイントサンプリング密度により構造上の不一致が引き起こされます。
したがって、既存の教師ありおよび教師なし点セット登録方法では、LiDAR フレーム間に 1 対 1 の対応関係を確立できません。
我々は、LO 予測を保護するための証拠として、正確なフレーム間の対応とモデルの予測不確実性 (PU) を共同学習する、新しい深層学習ベースのリアルタイム (フレームあたり約 35 ~ 40 ミリ秒) LO 手法を導入します。
この研究では、(i) ロバストな LO 推定のための LiDAR 特徴記述子の部分的な最適な転送、(ii) 運転シーケンスにわたるオドメトリの学習中の予測不確実性の共同学習、および (iii) PU が必要なポーズの証拠としてどのように機能するかを実証することを提案します。
– LO ネットワークの信頼性が過小または過大な場合のグラフの最適化。
私たちは KITTI データセットで私たちの手法を評価し、競争力のあるパフォーマンス、さらには最近の最先端のアプローチよりも優れた一般化能力を示しました。
ソースコードが利用可能です。
要約(オリジナル)
Accurate, robust, and real-time LiDAR-based odometry (LO) is imperative for many applications like robot navigation, globally consistent 3D scene map reconstruction, or safe motion-planning. Though LiDAR sensor is known for its precise range measurement, the non-uniform and uncertain point sampling density induce structural inconsistencies. Hence, existing supervised and unsupervised point set registration methods fail to establish one-to-one matching correspondences between LiDAR frames. We introduce a novel deep learning-based real-time (approx. 35-40ms per frame) LO method that jointly learns accurate frame-to-frame correspondences and model’s predictive uncertainty (PU) as evidence to safe-guard LO predictions. In this work, we propose (i) partial optimal transportation of LiDAR feature descriptor for robust LO estimation, (ii) joint learning of predictive uncertainty while learning odometry over driving sequences, and (iii) demonstrate how PU can serve as evidence for necessary pose-graph optimization when LO network is either under or over confident. We evaluate our method on KITTI dataset and show competitive performance, even superior generalization ability over recent state-of-the-art approaches. Source codes are available.
arxiv情報
著者 | Sk Aziz Ali,Djamila Aouada,Gerd Reis,Didier Stricker |
発行日 | 2023-08-14 14:06:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google