要約
ここ数十年で、ビジュアル同時ローカライゼーションおよびマッピング (vSLAM) は、学界と産業界の両方で大きな関心を集めてきました。
移動ロボットの視覚センサーを使用して、カメラの動きを推定し、同時に環境を再構築します。
ただし、従来のカメラはモーション ブラーや低ダイナミック レンジなどのハードウェアによって制限されており、高速モーションや高ダイナミック レンジの照明などの困難なシナリオではパフォーマンスに悪影響を与える可能性があります。
最近の研究では、生物からインスピレーションを得た新しいタイプの視覚センサーであるイベント カメラが、高い時間分解能、ダイナミック レンジ、低消費電力、低遅延などの利点を提供することが実証されています。
このペーパーでは、ローカリゼーションおよびマッピング タスクに非同期および不規則なイベント ストリームの利点を活用する、イベントベースの vSLAM アルゴリズムのタイムリーかつ包括的なレビューを示します。
このレビューでは、イベント カメラの動作原理と、イベント データを前処理するためのさまざまなイベント表現について説明します。
また、イベントベースの vSLAM 手法を、機能ベース、直接、動き補償、深層学習の 4 つの主要なカテゴリに分類し、それぞれのアプローチについて詳細な説明と実践的なガイダンスを提供します。
さらに、この論文ではさまざまなベンチマークで最先端の手法を評価し、この新興研究分野における現在の課題と将来の機会に焦点を当てています。
この分野の急速な発展を追跡するために、{\url{https://github.com/kun150kun/ESLAM-survey}} で公開リポジトリが維持されます。
要約(オリジナル)
In recent decades, visual simultaneous localization and mapping (vSLAM) has gained significant interest in both academia and industry. It estimates camera motion and reconstructs the environment concurrently using visual sensors on a moving robot. However, conventional cameras are limited by hardware, including motion blur and low dynamic range, which can negatively impact performance in challenging scenarios like high-speed motion and high dynamic range illumination. Recent studies have demonstrated that event cameras, a new type of bio-inspired visual sensor, offer advantages such as high temporal resolution, dynamic range, low power consumption, and low latency. This paper presents a timely and comprehensive review of event-based vSLAM algorithms that exploit the benefits of asynchronous and irregular event streams for localization and mapping tasks. The review covers the working principle of event cameras and various event representations for preprocessing event data. It also categorizes event-based vSLAM methods into four main categories: feature-based, direct, motion-compensation, and deep learning methods, with detailed discussions and practical guidance for each approach. Furthermore, the paper evaluates the state-of-the-art methods on various benchmarks, highlighting current challenges and future opportunities in this emerging research area. A public repository will be maintained to keep track of the rapid developments in this field at {\url{https://github.com/kun150kun/ESLAM-survey}}.
arxiv情報
著者 | Kunping Huang,Sen Zhang,Jing Zhang,Dacheng Tao |
発行日 | 2024-03-22 10:36:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google