要約
このホワイトペーパーでは、ダイナミクス認識の固有受容を通じて水中ロボットのロボット中心の速度を予測する学習モデルを紹介します。
この方法は、入力としての慣性キュー、モーターコマンド、およびバッテリー電圧測定値を使用して、堅牢な速度推定値とそれらに関連する不確実性を出力する前のタイムステップの隠された状態とともに、再発性ニューラルネットワークを悪用します。
ネットワークのアンサンブルが利用され、速度と不確実性の予測が強化されます。
ネットワークの出力を拡張されたカルマンフィルターに融合し、慣性予測とバロメーターの更新とともに、この方法により、それ以上の外観なしに長期の水中臭トメトリが可能になります。
さらに、視覚慣性匂い測定に統合された場合、この方法は、従来の視覚慣性システムと比較して追跡された(わずか1)追跡された合計機能が数桁少ない場合に、推定回復力の強化を支援します。
船上でテストされた水中ロボットは、実験室プールとトロンハイムフィヨルドの両方に展開されているため、CPUまたはNVIDIA Orin AGXのGPUのいずれかで推論するには5ms未満かかり、完全な軌道中の新規軌道で4%未満の相対位置誤差を示しています。
視覚的なブラックアウト、および単眼カメラから最大2つの視覚的特徴が利用可能な場合、約2%の相対誤差。
要約(オリジナル)
This paper presents a learned model to predict the robot-centric velocity of an underwater robot through dynamics-aware proprioception. The method exploits a recurrent neural network using as inputs inertial cues, motor commands, and battery voltage readings alongside the hidden state of the previous time-step to output robust velocity estimates and their associated uncertainty. An ensemble of networks is utilized to enhance the velocity and uncertainty predictions. Fusing the network’s outputs into an Extended Kalman Filter, alongside inertial predictions and barometer updates, the method enables long-term underwater odometry without further exteroception. Furthermore, when integrated into visual-inertial odometry, the method assists in enhanced estimation resilience when dealing with an order of magnitude fewer total features tracked (as few as 1) as compared to conventional visual-inertial systems. Tested onboard an underwater robot deployed both in a laboratory pool and the Trondheim Fjord, the method takes less than 5ms for inference either on the CPU or the GPU of an NVIDIA Orin AGX and demonstrates less than 4% relative position error in novel trajectories during complete visual blackout, and approximately 2% relative error when a maximum of 2 visual features from a monocular camera are available.
arxiv情報
著者 | Mohit Singh,Kostas Alexis |
発行日 | 2025-02-11 17:39:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google