要約
水中車両は、水生環境を探索および監視するための重要な技術として浮上しています。
マルチビェクルシステムの展開は、効率が向上した共同タスクを実行する能力により、大きな関心を集めています。
ただし、特に動的で複雑な水中条件において、マルチ車両構成内でリーダーの水中車両の正確なローカリゼーションを実現することは、重要な課題のままです。
この問題に対処するために、このペーパーでは、光学、音響、圧力センサーを統合してリーダー車両をローカライズする新しいトライモーダルセンサー融合ニューラルネットワークアプローチを紹介します。
提案された方法は、各センサーモダリティのユニークな強度を活用して、ローカリゼーションの精度と堅牢性を向上させます。
具体的には、光学センサーは、正確な相対的なポジショニング、音響センサーを有効にするための高解像度イメージングを提供し、長距離検出と範囲を可能にし、圧力センサーは環境コンテキストの認識を提供します。
これらのセンサーモダリティの融合は、生センサーデータから相補的な機能を抽出して組み合わせるように設計された深い学習アーキテクチャを使用して実装されます。
提案された方法の有効性は、カスタム設計のテストプラットフォームを通じて検証されます。
広範なデータ収集と実験的評価は、トライモーダルアプローチがリーダーのローカリゼーションの精度と堅牢性を大幅に改善し、シングルモーダルとデュアルモーダルの両方の方法を上回ることを示しています。
要約(オリジナル)
Underwater vehicles have emerged as a critical technology for exploring and monitoring aquatic environments. The deployment of multi-vehicle systems has gained substantial interest due to their capability to perform collaborative tasks with improved efficiency. However, achieving precise localization of a leader underwater vehicle within a multi-vehicle configuration remains a significant challenge, particularly in dynamic and complex underwater conditions. To address this issue, this paper presents a novel tri-modal sensor fusion neural network approach that integrates optical, acoustic, and pressure sensors to localize the leader vehicle. The proposed method leverages the unique strengths of each sensor modality to improve localization accuracy and robustness. Specifically, optical sensors provide high-resolution imaging for precise relative positioning, acoustic sensors enable long-range detection and ranging, and pressure sensors offer environmental context awareness. The fusion of these sensor modalities is implemented using a deep learning architecture designed to extract and combine complementary features from raw sensor data. The effectiveness of the proposed method is validated through a custom-designed testing platform. Extensive data collection and experimental evaluations demonstrate that the tri-modal approach significantly improves the accuracy and robustness of leader localization, outperforming both single-modal and dual-modal methods.
arxiv情報
著者 | Mingyang Yang,Zeyu Sha,Feitian Zhang |
発行日 | 2025-05-30 09:10:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google