要約
この論文では、水中洞窟内での AUV ナビゲーションのためのセマンティック セグメンテーションとシーン解析のための初の視覚学習パイプラインである CaveSeg を紹介します。
私たちは、水中洞窟シーンのセマンティック セグメンテーション用の包括的なデータセットを準備することで、注釈付きのトレーニング データが不足しているという問題に対処します。
これには、重要なナビゲーション マーカー (洞窟、矢印など)、障害物 (地面や頭上層など)、スキューバ ダイバー、サーボ用のオープン エリアのピクセル注釈が含まれています。
米国、メキシコ、スペインの洞窟システムに関する包括的なベンチマーク分析を通じて、水中洞窟環境のセマンティック シーンを高速に解析するために、CaveSeg に基づいて堅牢なディープ ビジュアル モデルを開発できることを実証しました。
特に、最先端のパフォーマンスを達成することに加えて、計算量が軽く、ほぼリアルタイムの実行を提供する新しいトランスフォーマーベースのモデルを定式化します。
最後に、水中洞窟内での AUV による視覚サーボのためのセマンティック セグメンテーションの設計上の選択とその影響について調査します。
提案されたモデルとベンチマーク データセットは、自律的な水中洞窟探検とマッピングにおける将来の研究に有望な機会を開きます。
要約(オリジナル)
In this paper, we present CaveSeg – the first visual learning pipeline for semantic segmentation and scene parsing for AUV navigation inside underwater caves. We address the problem of scarce annotated training data by preparing a comprehensive dataset for semantic segmentation of underwater cave scenes. It contains pixel annotations for important navigation markers (e.g. caveline, arrows), obstacles (e.g. ground plain and overhead layers), scuba divers, and open areas for servoing. Through comprehensive benchmark analyses on cave systems in USA, Mexico, and Spain locations, we demonstrate that robust deep visual models can be developed based on CaveSeg for fast semantic scene parsing of underwater cave environments. In particular, we formulate a novel transformer-based model that is computationally light and offers near real-time execution in addition to achieving state-of-the-art performance. Finally, we explore the design choices and implications of semantic segmentation for visual servoing by AUVs inside underwater caves. The proposed model and benchmark dataset open up promising opportunities for future research in autonomous underwater cave exploration and mapping.
arxiv情報
著者 | A. Abdullah,T. Barua,R. Tibbetts,Z. Chen,M. J. Islam,I. Rekleitis |
発行日 | 2024-02-22 21:23:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google