要約
イベントベースのカメラは、センサー面の特定のピクセル位置で事前設定された大きさのシーンの明るさの変化が検出されるたびにイベントを出力します。
この新しいカメラの高いダイナミック レンジと時間分解能と組み合わせた、結果として得られるまばらで非同期の出力は、ナビゲーションおよび着陸アプリケーション用のイベントベース カメラの研究を動機付けます。
しかし、この分野の研究をサポートする現実世界のデータセットや合成データセットが不足しているため、車上での使用の検討は限られています。
この論文では、目標物体への接近中に最適な着地軌道からイベントベースの視覚データセットを生成するための方法論とソフトウェア パイプラインを紹介します。
惑星および小惑星の自然シーン生成ユーティリティを使用して、境界条件を変化させることで得られる一連の最適な降下軌道に沿って、さまざまな視点から月面の写実的な画像のシーケンスを構築します。
生成された画像シーケンスは、イベントベースのカメラ エミュレーターによってイベント ストリームに変換されます。
イベント ストリームとモーション フィールドのグラウンド トゥルース データを備えた 500 の軌跡のデータセットを構築することで、パイプラインが表面フィーチャの現実的なイベントベースの表現を生成できることを示します。
このパイプラインを使用して、イベントを入力として与えられたさまざまな宇宙船姿勢再構成問題をサポートする新しいイベントベースの視覚データセットが生成できると期待しており、提案された方法論が神経形態視覚と誘導ナビゲーションの交差点で研究している研究者の注目を集めるように期待しています。
そしてコントロール。
要約(オリジナル)
An event-based camera outputs an event whenever a change in scene brightness of a preset magnitude is detected at a particular pixel location in the sensor plane. The resulting sparse and asynchronous output coupled with the high dynamic range and temporal resolution of this novel camera motivate the study of event-based cameras for navigation and landing applications. However, the lack of real-world and synthetic datasets to support this line of research has limited its consideration for onboard use. This paper presents a methodology and a software pipeline for generating event-based vision datasets from optimal landing trajectories during the approach of a target body. We construct sequences of photorealistic images of the lunar surface with the Planet and Asteroid Natural Scene Generation Utility at different viewpoints along a set of optimal descent trajectories obtained by varying the boundary conditions. The generated image sequences are then converted into event streams by means of an event-based camera emulator. We demonstrate that the pipeline can generate realistic event-based representations of surface features by constructing a dataset of 500 trajectories, complete with event streams and motion field ground truth data. We anticipate that novel event-based vision datasets can be generated using this pipeline to support various spacecraft pose reconstruction problems given events as input, and we hope that the proposed methodology would attract the attention of researchers working at the intersection of neuromorphic vision and guidance navigation and control.
arxiv情報
著者 | Loïc J. Azzalini,Emmanuel Blazquez,Alexander Hadjiivanov,Gabriele Meoni,Dario Izzo |
発行日 | 2023-08-01 09:14:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google