要約
ロボットの安全な動作には正確な外乱推定が不可欠です。
最近提案されたニューラル移動地平線推定 (NeuroMHE) は、ポータブル ニューラル ネットワークを使用して MHE の重み付けをモデル化し、精度と効率の限界をさらに押し上げる可能性を示しています。
現在、NeuroMHE は勾配降下法を通じてトレーニングされており、その勾配はカルマン フィルターを使用して再帰的に計算されます。
本稿では、NeuroMHE を訓練するための信頼領域ポリシー最適化手法を提案します。
これは、MHE ヘシアンと呼ばれる MHE の 2 次導関数を提供することで実現します。
注目すべきことに、勾配を取得するためにすでに使用されている計算の多く、特にカルマン フィルターが、MHE ヘシアンの計算に効率的に再利用できることがわかります。
これにより、MHE ホライズンに対して線形の計算複雑さが実現されます。
ケーススタディとして、外乱推定のために実際のクアッドローター飛行データ上で提案された信頼領域 NeuroMHE を評価します。
私たちのアプローチは、わずか 100 個のデータ ポイントを使用して 5 分未満で非常に効率的なトレーニングを実証します。
ネットワーク パラメータのわずか 1.4% しか利用せず、力推定精度においては最先端のニューラル推定器を最大 68.1% 上回ります。
さらに、私たちの方法は、勾配降下法に比べてネットワークの初期化に対する堅牢性が強化されていることを示しています。
要約(オリジナル)
Accurate disturbance estimation is essential for safe robot operations. The recently proposed neural moving horizon estimation (NeuroMHE), which uses a portable neural network to model the MHE’s weightings, has shown promise in further pushing the accuracy and efficiency boundary. Currently, NeuroMHE is trained through gradient descent, with its gradient computed recursively using a Kalman filter. This paper proposes a trust-region policy optimization method for training NeuroMHE. We achieve this by providing the second-order derivatives of MHE, referred to as the MHE Hessian. Remarkably, we show that much of computation already used to obtain the gradient, especially the Kalman filter, can be efficiently reused to compute the MHE Hessian. This offers linear computational complexity relative to the MHE horizon. As a case study, we evaluate the proposed trust region NeuroMHE on real quadrotor flight data for disturbance estimation. Our approach demonstrates highly efficient training in under 5 min using only 100 data points. It outperforms a state-of-the-art neural estimator by up to 68.1% in force estimation accuracy, utilizing only 1.4% of its network parameters. Furthermore, our method showcases enhanced robustness to network initialization compared to the gradient descent counterpart.
arxiv情報
著者 | Bingheng Wang,Xuyang Chen,Lin Zhao |
発行日 | 2023-09-15 16:32:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google