DynaPix SLAM: A Pixel-Based Dynamic Visual SLAM Approach

要約

Visual Simultaneous Localization and Mapping (V-SLAM) 手法は、静的環境では顕著なパフォーマンスを達成しますが、移動するオブジェクトがコア モジュールに重大な影響を与える動的シーンでは課題に直面します。
これを回避するために、動的 V-SLAM アプローチでは、セマンティック情報、幾何学的制約、またはオプティカル フローを活用することがよくあります。
ただし、これらの方法は、不正確な推定と深層学習モデルの精度への依存によって制限されます。
さらに、静的/動的分類の事前定義されたしきい値、動的オブジェクト クラスのアプリオリな選択、未知または予期しない移動オブジェクトを認識できないことにより、パフォーマンスが低下することがよくあります。
これらの制限に対処するために、ピクセルごとの動き確率推定と改善された姿勢最適化プロセスに基づく、新しいセマンティックフリーの V-SLAM システムである DynaPix を導入します。
ピクセルごとの動きの確率は、画像データに対する静的な背景差分法と、スプラッティングされたフレーム上で計算されたオプティカル フローを使用して推定されます。
DynaPix では、これらの確率をマップ ポイントの選択に完全に統合し、ORB-SLAM2 の追跡および最適化モジュール内の重み付けされたバンドル調整を通じて適用します。
GRADE および TUM RGB-D データセットを使用してメソッドを徹底的に評価し、静的シーケンスと動的シーケンスの両方で軌道エラーが大幅に減少し、追跡時間が長くなることがわかりました。
ソース コード、データセット、結果は https://dynapix.is.tue.mpg.de/ で入手できます。

要約(オリジナル)

Visual Simultaneous Localization and Mapping (V-SLAM) methods achieve remarkable performance in static environments, but face challenges in dynamic scenes where moving objects severely affect their core modules. To avoid this, dynamic V-SLAM approaches often leverage semantic information, geometric constraints, or optical flow. However, these methods are limited by imprecise estimations and their reliance on the accuracy of deep-learning models. Moreover, predefined thresholds for static/dynamic classification, the a-priori selection of dynamic object classes, and the inability to recognize unknown or unexpected moving objects, often degrade their performance. To address these limitations, we introduce DynaPix, a novel semantic-free V-SLAM system based on per-pixel motion probability estimation and an improved pose optimization process. The per-pixel motion probability is estimated using a static background differencing method on image data and optical flows computed on splatted frames. With DynaPix, we fully integrate these probabilities into map point selection and apply them through weighted bundle adjustment within the tracking and optimization modules of ORB-SLAM2. We thoroughly evaluate our method using the GRADE and TUM RGB-D datasets, showing significantly lower trajectory errors and longer tracking times in both static and dynamic sequences. The source code, datasets, and results are available at https://dynapix.is.tue.mpg.de/.

arxiv情報

著者 Chenghao Xu,Elia Bonetto,Aamir Ahmad
発行日 2024-08-20 10:24:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク