Learning Which Side to Scan: Multi-View Informed Active Perception with Side Scan Sonar for Autonomous Underwater Vehicles

要約

自律型水中航走体は、人間のオペレータや自動ターゲット認識アルゴリズムにより多くの情報を提供するために、ターゲットの複数のビューをキャプチャする調査を行うことが多い。この研究では、分類器の精度を最大化しながら、調査時間を最小化する最も有益なビューを選択する問題に取り組む。サイドスキャンソナー画像を用いたマルチビュー適応的測量と再捕捉のための新しい能動的知覚フレームワークを紹介する。本フレームワークは、適応的測量タスクにグラフ定式化を用いることにより、この課題に対処する。そして、グラフニューラルネットワーク(GNN)を用いて、取得したソナー画像を分類し、収集したデータに基づいて次の最適な画像を選択する。高忠実度のサイドスキャンソナーシミュレータで模擬調査を行い、本手法を評価した。その結果、本手法が分類精度と調査効率において最先端を上回ることが実証された。このフレームワークは、水中探査、海洋考古学、環境モニタリングなど、サイドスキャンソナーを含むより効率的な自律ミッションのための有望なアプローチである。

要約(オリジナル)

Autonomous underwater vehicles often perform surveys that capture multiple views of targets in order to provide more information for human operators or automatic target recognition algorithms. In this work, we address the problem of choosing the most informative views that minimize survey time while maximizing classifier accuracy. We introduce a novel active perception framework for multi-view adaptive surveying and reacquisition using side scan sonar imagery. Our framework addresses this challenge by using a graph formulation for the adaptive survey task. We then use Graph Neural Networks (GNNs) to both classify acquired sonar views and to choose the next best view based on the collected data. We evaluate our method using simulated surveys in a high-fidelity side scan sonar simulator. Our results demonstrate that our approach is able to surpass the state-of-the-art in classification accuracy and survey efficiency. This framework is a promising approach for more efficient autonomous missions involving side scan sonar, such as underwater exploration, marine archaeology, and environmental monitoring.

arxiv情報

著者 Advaith V. Sethuraman,Philip Baldoni,Katherine A. Skinner,James McMahon
発行日 2024-02-02 02:47:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク