Efficient Continuous-Time Ego-Motion Estimation for Asynchronous Event-based Data Associations

要約

イベント カメラは、ピクセルごとの明るさの変化を非同期的に測定する、生物からインスピレーションを得たビジョン センサーです。
イベント カメラの高い時間分解能と非同期性は、ロボットの運動状態を推定する上で大きな可能性をもたらします。
最近の作品では、イベント カメラの固有の性質を利用するために、連続時間のエゴモーション推定方法が採用されています。
ただし、採用された方法のほとんどはリアルタイム性能が劣ります。
これを軽減するために、非同期イベント駆動型データ関連付けから動きの軌跡を効率的に推定する軽量のガウス プロセス (GP) ベースの推定フレームワークが提案されています。
具体的には、非同期フロントエンド パイプラインは、イベント駆動型の特徴トラッカーを適応させ、イベント ストリームから特徴の軌跡を生成するように設計されています。
並列動的スライディング ウィンドウ バックエンドは、SE(3) のスパース GP 回帰のフレームワーク内で提示されます。
特に、この GP 回帰の一貫性と希薄性を確保するために、特別に設計された状態周縁化戦略が採用されています。
合成データセットと現実世界のデータセットに対して行われた実験は、提案された方法が最先端の方法と比較して競争力のある精度と優れた堅牢性を達成することを実証しています。
さらに、3 つの 60 秒軌道の評価では、この提案が計算効率の点で ISAM2 ベースの手法よりもそれぞれ 2.64 倍、4.22 倍、11.70 倍優れていることが示されています。

要約(オリジナル)

Event cameras are bio-inspired vision sensors that asynchronously measure per-pixel brightness changes. The high temporal resolution and asynchronicity of event cameras offer great potential for estimating the robot motion state. Recent works have adopted the continuous-time ego-motion estimation methods to exploit the inherent nature of event cameras. However, most of the adopted methods have poor real-time performance. To alleviate it, a lightweight Gaussian Process (GP)-based estimation framework is proposed to efficiently estimate motion trajectory from asynchronous event-driven data associations. Concretely, an asynchronous front-end pipeline is designed to adapt event-driven feature trackers and generate feature trajectories from event streams; a parallel dynamic sliding-window back-end is presented within the framework of sparse GP regression on SE(3). Notably, a specially designed state marginalization strategy is employed to ensure the consistency and sparsity of this GP regression. Experiments conducted on synthetic and real-world datasets demonstrate that the proposed method achieves competitive precision and superior robustness compared to the state-of-the-art. Furthermore, the evaluations on three 60 s trajectories show that the proposal outperforms the ISAM2-based method in terms of computational efficiency by 2.64, 4.22, and 11.70 times, respectively.

arxiv情報

著者 Zhixiang Wang,Xudong Li,Tianle Liu,Yizhai Zhang,Panfeng Huang
発行日 2024-02-26 08:47:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク