Stereo Event-based Visual-Inertial Odometry

要約

イベントベースのカメラは、標準的な強度フレームを提供する代わりに、ピクセルが独立して動作し、マイクロ秒の解像度で明るさの変化に非同期に応答する新しいタイプのビジョン センサーです。
従来のカメラと比較して、イベントベースのカメラはレイテンシが低く、モーション ブラーがなく、ダイナミック レンジ (HDR) が高いため、ロボットが困難なシーンを処理できる可能性があります。
カルマン フィルター処理に基づくステレオ イベント カメラの視覚慣性オドメトリー法を提案します。
ビジュアル モジュールはカメラ ポーズを 2D 画像へのセミ デンス 3D マップのエッジ位置合わせに依存して更新し、IMU モジュールはミッドポイント方式でポーズを更新します。
一般的な 6-DoF モーションを持つ自然シーンの公開データセットでこの方法を評価し、その結果をグラウンド トゥルースと比較します。
提案されたパイプラインは、標準の CPU でリアルタイムに実行しながら、ステレオ イベント カメラの最先端のビジュアル オドメトリ法の結果よりも精度が向上することを示します。
私たちの知る限り、これはステレオ イベント カメラ用に公開された最初のビジュアル慣性オドメトリ アルゴリズムです。

要約(オリジナル)

Event-based cameras are new type vision sensors whose pixels work independently and respond asynchronously to brightness change with microsecond resolution, instead of provide stand-ard intensity frames. Compared with traditional cameras, event-based cameras have low latency, no motion blur, and high dynamic range (HDR), which provide possibilities for robots to deal with some challenging scenes. We propose a visual-inertial odometry method for stereo event-cameras based on Kalman filtering. The visual module updates the camera pose relies on the edge alignment of a semi-dense 3D map to a 2D image, and the IMU module updates pose by midpoint method. We evaluate our method on public datasets in natural scenes with general 6-DoF motion and compare the results against ground truth. We show that the proposed pipeline provides improved accuracy over the result of a state-of-the-art visual odometry method for stereo event-cameras, while running in real-time on a standard CPU. To the best of our knowledge, this is the first published visual-inertial odometry algorithm for stereo event-cameras.

arxiv情報

著者 Kunfeng Wang,Kaichun Zhao
発行日 2023-03-09 07:50:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク