Learning Which Side to Scan: Multi-View Informed Active Perception with Side Scan Sonar for Autonomous Underwater Vehicles

要約

自律型水中ビークルは、人間のオペレーターや自動ターゲット認識アルゴリズムにより多くの情報を提供するために、ターゲットの複数のビューをキャプチャする調査を実行することがよくあります。
この作業では、分類器の精度を最大化しながら調査時間を最小限に抑える、最も有益なビューを選択するという問題に取り組みます。
サイドスキャンソナー画像を使用した多視点適応測量と再取得のための新しいアクティブ知覚フレームワークを紹介します。
私たちのフレームワークは、適応型調査タスクのグラフ定式化を使用することで、この課題に対処します。
次に、グラフ ニューラル ネットワーク (GNN) を使用して、取得したソナー ビューを分類し、収集したデータに基づいて次に最適なビューを選択します。
高忠実度のサイド スキャン ソナー シミュレーターでシミュレートされた調査を使用して方法を評価します。
私たちの結果は、私たちのアプローチが分類精度と調査効率において最先端技術を上回ることができることを示しています。
このフレームワークは、水中探査、海洋考古学、環境モニタリングなど、サイドスキャンソナーを含むより効率的な自律ミッションのための有望なアプローチです。

要約(オリジナル)

Autonomous underwater vehicles often perform surveys that capture multiple views of targets in order to provide more information for human operators or automatic target recognition algorithms. In this work, we address the problem of choosing the most informative views that minimize survey time while maximizing classifier accuracy. We introduce a novel active perception framework for multi-view adaptive surveying and reacquisition using side scan sonar imagery. Our framework addresses this challenge by using a graph formulation for the adaptive survey task. We then use Graph Neural Networks (GNNs) to both classify acquired sonar views and to choose the next best view based on the collected data. We evaluate our method using simulated surveys in a high-fidelity side scan sonar simulator. Our results demonstrate that our approach is able to surpass the state-of-the-art in classification accuracy and survey efficiency. This framework is a promising approach for more efficient autonomous missions involving side scan sonar, such as underwater exploration, marine archaeology, and environmental monitoring.

arxiv情報

著者 Advaith V. Sethuraman,Philip Baldoni,Katherine A. Skinner,James McMahon
発行日 2024-04-13 04:49:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク