Modeling of AUV Dynamics with Limited Resources: Efficient Online Learning Using Uncertainty

要約

機械学習は、特に水中車両のデータからダイナミクスモデルを構築するのに効果的です。
ただし、着信データストリームを使用してこれらのモデルを継続的に改良するには、多くの場合、圧倒的な量の冗長データを保存する必要があります。
この作業では、保管容量が制約されているときにオンライン学習をリハーサルするためのデータポイントの選択における不確実性の使用を調査します。
モデルは、認識論的不確実性を予測するのに適したパフォーマンスであるため、多層パーセプロンのアンサンブルを使用して学習されます。
3つの斬新なアプローチを提示します。指定されたしきい値を下回る不確実性のあるサンプル、貪欲な方法、保存されたポイント間の不確実性を最大化するように設計された貪欲な方法、および以前の2つのアプローチを組み合わせたしきい値Greedyを除外します。
この方法は、水中車両のダゴンによって収集されたデータで評価されます。
ベースラインとの比較により、しきい値が学習プロセス全体で安定性が向上し、累積テスト損失が最も少ないモデルも得られることが明らかになりました。
また、モデルのパフォーマンスに対するモデルパラメーターとストレージサイズの影響に関する詳細な分析と、3つの異なる不確実性推定方法の比較も実施しました。

要約(オリジナル)

Machine learning proves effective in constructing dynamics models from data, especially for underwater vehicles. Continuous refinement of these models using incoming data streams, however, often requires storage of an overwhelming amount of redundant data. This work investigates the use of uncertainty in the selection of data points to rehearse in online learning when storage capacity is constrained. The models are learned using an ensemble of multilayer perceptrons as they perform well at predicting epistemic uncertainty. We present three novel approaches: the Threshold method, which excludes samples with uncertainty below a specified threshold, the Greedy method, designed to maximize uncertainty among the stored points, and Threshold-Greedy, which combines the previous two approaches. The methods are assessed on data collected by an underwater vehicle Dagon. Comparison with baselines reveals that the Threshold exhibits enhanced stability throughout the learning process and also yields a model with the least cumulative testing loss. We also conducted detailed analyses on the impact of model parameters and storage size on the performance of the models, as well as a comparison of three different uncertainty estimation methods.

arxiv情報

著者 Michal Tešnar,Bilal Wehbe,Matias Valdenegro-Toro
発行日 2025-04-06 18:48:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク