Multi-Event-Camera Depth Estimation and Outlier Rejection by Refocused Events Fusion

要約

イベントカメラは、従来のカメラに勝る利点を提供するバイオインスパイアードセンサーです。
これらは非同期で動作し、マイクロ秒の解像度でシーンをサンプリングし、明るさの変化のストリームを生成します。
この型破りな出力は、カメラの可能性を解き放つための新しいコンピュータービジョン手法を生み出しました。
SLAMのイベントベースのステレオ3D再構成の問題に取り組んでいます。
ほとんどのイベントベースのステレオメソッドは、カメラの高い時間分解能とカメラ全体のイベントの同時性を利用して、一致を確立し、深度を推定しようとします。
対照的に、効率的な単眼法に由来する視差空間画像(DSI)を融合することにより、明示的なデータ関連付けなしで深度を推定する方法を調査します。
融合理論を開発し、それを適用して、最先端の結果を生成するマルチカメラ3D再構成アルゴリズムを設計します。これは、4つのベースライン方法と比較し、利用可能なさまざまなデータセットでテストすることで確認できます。

要約(オリジナル)

Event cameras are bio-inspired sensors that offer advantages over traditional cameras. They work asynchronously, sampling the scene with microsecond resolution and producing a stream of brightness changes. This unconventional output has sparked novel computer vision methods to unlock the camera’s potential. We tackle the problem of event-based stereo 3D reconstruction for SLAM. Most event-based stereo methods try to exploit the camera’s high temporal resolution and event simultaneity across cameras to establish matches and estimate depth. By contrast, we investigate how to estimate depth without explicit data association by fusing Disparity Space Images (DSIs) originated in efficient monocular methods. We develop fusion theory and apply it to design multi-camera 3D reconstruction algorithms that produce state-of-the-art results, as we confirm by comparing against four baseline methods and testing on a variety of available datasets.

arxiv情報

著者 Suman Ghosh,Guillermo Gallego
発行日 2022-07-21 14:19:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, eess.SP パーマリンク