要約
この論文では、自律着陸システム用の認定されたビジョンベースの状態推定器を設計する問題について研究します。
このようなシステムでは、ニューラル ネットワーク (NN) がカメラからの画像を処理して、滑走路に対する航空機の相対位置を推定します。
私たちは、滑走路を検出し、正確な状態推定を提供する能力に関して認定された特性を備えたこのような NN を設計するアルゴリズムを提案します。
私たちのアプローチの中心は、遠近法カメラの幾何学モデルを使用して、航空機の状態と入力の間の関係を捉える数学的モデルを取得することです。
我々は、このような幾何学モデルが混合単調性特性を享受しており、これを使用して、証明可能な誤差限界を持つ状態推定器を設計できることを示します。
イベントベースのカメラから収集されたデータの実験用テストベッドを使用して、提案されたアプローチの有効性を示します。
要約(オリジナル)
This paper studies the problem of designing a certified vision-based state estimator for autonomous landing systems. In such a system, a neural network (NN) processes images from a camera to estimate the aircraft relative position with respect to the runway. We propose an algorithm to design such NNs with certified properties in terms of their ability to detect runways and provide accurate state estimation. At the heart of our approach is the use of geometric models of perspective cameras to obtain a mathematical model that captures the relation between the aircraft states and the inputs. We show that such geometric models enjoy mixed monotonicity properties that can be used to design state estimators with certifiable error bounds. We show the effectiveness of the proposed approach using an experimental testbed on data collected from event-based cameras.
arxiv情報
著者 | Ulices Santa Cruz Leal,Yasser Shoukry |
発行日 | 2023-09-10 23:29:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google