要約
イベント カメラは、固定フレーム レートの強度画像の代わりにピクセル レベルの照明変化をキャプチャするモーション起動センサーです。
標準カメラと比較して、高速動作や高ダイナミック レンジのシナリオでも信頼性の高い視覚認識を提供できます。
ただし、静止状態など、カメラとシーンの間の相対的な動きが制限されている場合、イベント カメラは少量の情報しか出力しないか、ノイズさえも出力します。
標準カメラは、ほとんどのシナリオ、特に良好な照明条件で豊富な知覚情報を提供できます。
これら 2 つのカメラはまさに補完的です。
この論文では、イベントコーナー特徴、ラインベースのイベント特徴、およびポイントベースの画像特徴を備えた、堅牢で高精度のリアルタイム最適化ベースの単眼イベントベースの視覚慣性走行距離測定法 (VIO) を提案しました。
。
提案された方法は、自然シーンのポイントベースのフィーチャと人工シーンのラインベースのフィーチャを活用して、適切に設計されたフィーチャ管理を通じて追加の構造または制約情報を提供します。
公開ベンチマーク データセットでの実験では、私たちの方法が最先端の画像ベースまたはイベントベースの VIO と比較して優れたパフォーマンスを達成できることが示されています。
最後に、私たちはこの方法を使用して、機内での閉ループ自律クワッドローター飛行と大規模な屋外実験を実証しました。
評価のビデオはプロジェクト Web サイトで紹介されています: https://b23.tv/OE3QM6j
要約(オリジナル)
Event cameras are motion-activated sensors that capture pixel-level illumination changes instead of the intensity image with a fixed frame rate. Compared with the standard cameras, it can provide reliable visual perception during high-speed motions and in high dynamic range scenarios. However, event cameras output only a little information or even noise when the relative motion between the camera and the scene is limited, such as in a still state. While standard cameras can provide rich perception information in most scenarios, especially in good lighting conditions. These two cameras are exactly complementary. In this paper, we proposed a robust, high-accurate, and real-time optimization-based monocular event-based visual-inertial odometry (VIO) method with event-corner features, line-based event features, and point-based image features. The proposed method offers to leverage the point-based features in the nature scene and line-based features in the human-made scene to provide more additional structure or constraints information through well-design feature management. Experiments in the public benchmark datasets show that our method can achieve superior performance compared with the state-of-the-art image-based or event-based VIO. Finally, we used our method to demonstrate an onboard closed-loop autonomous quadrotor flight and large-scale outdoor experiments. Videos of the evaluations are presented on our project website: https://b23.tv/OE3QM6j
arxiv情報
著者 | Weipeng Guan,Peiyu Chen,Yuhan Xie,Peng Lu |
発行日 | 2023-09-26 09:46:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google