要約
イベント カメラを慣性センサーと組み合わせると、高速操縦や低照度環境などの困難なシナリオでの動き推定に大きな可能性を示します。
このような推定を行う方法は数多くありますが、ほとんどは同期離散時間融合問題に要約されます。
ただし、イベント カメラの非同期の性質と、慣性センサーとの独自の融合メカニズムはまだ解明されていません。
この論文では、統一ガウス過程 (GP) 回帰フレームワーク内で非同期イベントと慣性データを融合するように設計された、AsynEIO と呼ばれる単眼イベント慣性オドメトリ手法を紹介します。
私たちのアプローチには、高い時間解像度で生のイベント ストリームから直接特徴の軌跡を追跡するイベント駆動型のフロントエンドが組み込まれています。
これらの追跡されたフィーチャの軌跡は、さまざまな慣性要因とともに、同じ GP 回帰フレームワークに統合され、非同期融合が可能になります。
解析的な残差ヤコビアンとノイズ モデルを導出することで、私たちの方法は、スライディング ウィンドウ オプティマイザーを使用して反復的に最適化および枝刈りされるファクター グラフを構築します。
比較評価では、さまざまな慣性核融合戦略のパフォーマンスが強調され、さまざまな条件に最適な選択が示唆されます。
公開データセットと独自のイベント慣性シーケンスの両方に関する実験結果は、特に高速かつ低照度のシナリオにおいて、AsynEIO が既存の手法よりも優れたパフォーマンスを発揮することを示しています。
要約(オリジナル)
Event cameras, when combined with inertial sensors, show significant potential for motion estimation in challenging scenarios, such as high-speed maneuvers and low-light environments. There are many methods for producing such estimations, but most boil down to a synchronous discrete-time fusion problem. However, the asynchronous nature of event cameras and their unique fusion mechanism with inertial sensors remain underexplored. In this paper, we introduce a monocular event-inertial odometry method called AsynEIO, designed to fuse asynchronous event and inertial data within a unified Gaussian Process (GP) regression framework. Our approach incorporates an event-driven frontend that tracks feature trajectories directly from raw event streams at a high temporal resolution. These tracked feature trajectories, along with various inertial factors, are integrated into the same GP regression framework to enable asynchronous fusion. With deriving analytical residual Jacobians and noise models, our method constructs a factor graph that is iteratively optimized and pruned using a sliding-window optimizer. Comparative assessments highlight the performance of different inertial fusion strategies, suggesting optimal choices for varying conditions. Experimental results on both public datasets and our own event-inertial sequences indicate that AsynEIO outperforms existing methods, especially in high-speed and low-illumination scenarios.
arxiv情報
著者 | Zhixiang Wang,Xudong Li,Yizhai Zhang,Fan Zhang,Panfeng |
発行日 | 2024-11-19 02:39:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google