Dynamic Dense RGB-D SLAM using Learning-based Visual Odometry

要約

私たちは、学習ベースのビジュアル オドメトリである TartanVO に基づいた高密度の動的 RGB-D SLAM パイプラインを提案します。
TartanVO は、特徴ベースではなく他の直接的な方法と同様に、高密度のオプティカル フローを通じてカメラのポーズを推定します。これは静的なシーンにのみ適用され、動的なオブジェクトは無視されます。
色の恒常性の仮定により、オプティカル フローは動的ピクセルと静的ピクセルを区別できません。
したがって、このような直接的な方法で静的マップを再構築するために、パイプラインはオプティカル フロー出力を利用して動的/静的セグメンテーションを解決し、静的ポイントのみをマップに融合します。
さらに、動的ピクセルが削除されるように入力フレームを再レンダリングし、それらを繰り返しビジュアル オドメトリに戻して姿勢推定を改良します。

要約(オリジナル)

We propose a dense dynamic RGB-D SLAM pipeline based on a learning-based visual odometry, TartanVO. TartanVO, like other direct methods rather than feature-based, estimates camera pose through dense optical flow, which only applies to static scenes and disregards dynamic objects. Due to the color constancy assumption, optical flow is not able to differentiate between dynamic and static pixels. Therefore, to reconstruct a static map through such direct methods, our pipeline resolves dynamic/static segmentation by leveraging the optical flow output, and only fuse static points into the map. Moreover, we rerender the input frames such that the dynamic pixels are removed and iteratively pass them back into the visual odometry to refine the pose estimate.

arxiv情報

著者 Shihao Shen,Yilin Cai,Jiayi Qiu,Guangzhao Li
発行日 2023-06-28 20:31:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク