要約
イベントベースのビジュアル オドメトリの直接的な方法では、イベントの生成モデルを利用する方法で暗黙的なデータの関連付けを確立することで、マッピングとカメラ ポーズ追跡の下位問題を解決します。
この分野の最先端の研究が直面する主なボトルネックには、マッピングの計算の複雑さと追跡の精度の限界が含まれます。
このペーパーでは、精度と効率の観点から、以前の直接パイプライン \textit{イベントベースのステレオ ビジュアル オドメトリ} を改善します。
マッピング操作を高速化するために、イベントのローカルダイナミクスに従ってエッジピクセルサンプリングの効率的な戦略を提案します。
完全性と局所的な滑らかさの点でのマッピングのパフォーマンスも、時間的ステレオ結果と静的ステレオ結果を組み合わせることで向上します。
一般的な 6-DoF 動作のヨー成分を回復する際のカメラ姿勢追跡の縮退問題を回避するために、事前積分によるジャイロスコープ測定を事前に導入します。
公開されているデータセットでの実験により、私たちの改善が正当化されます。
この分野での将来の研究のために、私たちはパイプラインをオープンソース ソフトウェアとしてリリースします。
要約(オリジナル)
Direct methods for event-based visual odometry solve the mapping and camera pose tracking sub-problems by establishing implicit data association in a way that the generative model of events is exploited. The main bottlenecks faced by state-of-the-art work in this field include the high computational complexity of mapping and the limited accuracy of tracking. In this paper, we improve our previous direct pipeline \textit{Event-based Stereo Visual Odometry} in terms of accuracy and efficiency. To speed up the mapping operation, we propose an efficient strategy of edge-pixel sampling according to the local dynamics of events. The mapping performance in terms of completeness and local smoothness is also improved by combining the temporal stereo results and the static stereo results. To circumvent the degeneracy issue of camera pose tracking in recovering the yaw component of general 6-DoF motion, we introduce as a prior the gyroscope measurements via pre-integration. Experiments on publicly available datasets justify our improvement. We release our pipeline as an open-source software for future research in this field.
arxiv情報
著者 | Junkai Niu,Sheng Zhong,Yi Zhou |
発行日 | 2024-05-07 07:19:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google