要約
ビジュアル オドメトリ (VO) と SLAM は、移動ロボットの空間認識の基本コンポーネントです。
この分野では大きな進歩があったにもかかわらず、現在の VO/SLAM システムはセンサーの能力によって制限されています。
イベント カメラは、標準カメラの制限を克服する利点を提供する新しい視覚センサーであり、ロボットの動作範囲を高速動作や高ダイナミック レンジの照明などの困難なシナリオに拡張できるようにします。
我々は、光線密度融合を最大化することによって深度を推定するコレスポンデンスフリーマッピングモジュールと、エッジマップアライメントを最大化することによってカメラポーズを推定する追跡モジュールという2つのアイデアを組み合わせることにより、新しいイベントベースのステレオVOシステムを提案します。
私たちは、さまざまなカメラの種類 (メーカーと空間解像度) とシナリオ (運転、飛行ドローン、ハンドヘルド、自己中心的など) にわたる 5 つの現実世界のデータセットに基づいてシステムを包括的に評価します。
定量的および定性的結果は、我々の方法が大部分のテストシーケンスで最先端技術を大幅に上回っていることを示しています (例: RPG データセットで 45%、DSEC データセットで 61%、TUM-VIE で 21% の軌道エラー削減)。
データセット。
コミュニティに利益をもたらし、イベントベースの知覚システムに関する研究を促進するために、ソース コードと結果をリリースします: https://github.com/tub-rip/ES-PTAM
要約(オリジナル)
Visual Odometry (VO) and SLAM are fundamental components for spatial perception in mobile robots. Despite enormous progress in the field, current VO/SLAM systems are limited by their sensors’ capability. Event cameras are novel visual sensors that offer advantages to overcome the limitations of standard cameras, enabling robots to expand their operating range to challenging scenarios, such as high-speed motion and high dynamic range illumination. We propose a novel event-based stereo VO system by combining two ideas: a correspondence-free mapping module that estimates depth by maximizing ray density fusion and a tracking module that estimates camera poses by maximizing edge-map alignment. We evaluate the system comprehensively on five real-world datasets, spanning a variety of camera types (manufacturers and spatial resolutions) and scenarios (driving, flying drone, hand-held, egocentric, etc). The quantitative and qualitative results demonstrate that our method outperforms the state of the art in majority of the test sequences by a margin, e.g., trajectory error reduction of 45% on RPG dataset, 61% on DSEC dataset, and 21% on TUM-VIE dataset. To benefit the community and foster research on event-based perception systems, we release the source code and results: https://github.com/tub-rip/ES-PTAM
arxiv情報
著者 | Suman Ghosh,Valentina Cavinato,Guillermo Gallego |
発行日 | 2024-08-28 07:56:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google