要約
本論文では、自律型水上車両(ASV)の状況認識を強化するために、水中環境内の水中障害物に焦点を当てた、自律型海上航行のための一般にアクセス可能な初のラベル付きマルチモーダル知覚データセットを紹介する。このデータセットは、様々な環境条件下で遭遇する多様な物体から構成され、4年間かけて収集されたもので、物体検出と分類のための、マルチモーダル、注釈付き、自我中心の知覚データセットを提供することで、自律型水上車両の研究ギャップを埋めることを目的としている。また、ディープラーニングベースのオープンソースの知覚アルゴリズムをトレーニングすることで、提案するデータセットの適用可能性を示す。我々は、我々のデータセットが海洋自律化パイプラインと海洋(フィールド)ロボティクスの開発に貢献することを期待している。このデータセットはオープンソースであり、https://seepersea.github.io/。
要約(オリジナル)
This paper introduces the first publicly accessible labeled multi-modal perception dataset for autonomous maritime navigation, focusing on in-water obstacles within the aquatic environment to enhance situational awareness for Autonomous Surface Vehicles (ASVs). This dataset, collected over 4 years and consisting of diverse objects encountered under varying environmental conditions, aims to bridge the research gap in autonomous surface vehicles by providing a multi-modal, annotated, and ego-centric perception dataset, for object detection and classification. We also show the applicability of the proposed dataset by training deep learning-based open-source perception algorithms that have shown success. We expect that our dataset will contribute to development of the marine autonomy pipelines and marine (field) robotics. This dataset is opensource and can be found at https://seepersea.github.io/.
arxiv情報
著者 | Mingi Jeong,Arihant Chadda,Ziang Ren,Luyang Zhao,Haowen Liu,Monika Roznere,Aiwei Zhang,Yitao Jiang,Sabriel Achong,Samuel Lensgraf,Alberto Quattrini Li |
発行日 | 2025-02-01 04:59:36+00:00 |
arxivサイト | arxiv_id(pdf) |