要約
この論文では、自律水上車両 (ASV) の状況認識を強化するために、水生環境内の水中の障害物に焦点を当てた、自律海上航行用に公的にアクセス可能な初のマルチモーダル知覚データセットを紹介します。
このデータセットは、さまざまな環境条件下で遭遇する多様な物体で構成されており、物体の検出と分類のために、マルチモーダルで注釈付きの自己中心的な認識データセットを提供することで、海洋ロボット工学における研究のギャップを埋めることを目的としています。
また、成功を収めている深層学習ベースのオープンソース認識アルゴリズムを使用して、提案されたデータセットのフレームワークの適用性も示します。
私たちは、私たちのデータセットが海洋自律パイプラインと海洋(フィールド)ロボット工学の開発に貢献することを期待しています。
これは進行中の研究に関する進行中の論文であり、将来の出版物を通じて全文を公開する予定であることに注意してください。
要約(オリジナル)
This paper introduces the first publicly accessible multi-modal perception dataset for autonomous maritime navigation, focusing on in-water obstacles within the aquatic environment to enhance situational awareness for Autonomous Surface Vehicles (ASVs). This dataset, consisting of diverse objects encountered under varying environmental conditions, aims to bridge the research gap in marine robotics by providing a multi-modal, annotated, and ego-centric perception dataset, for object detection and classification. We also show the applicability of the proposed dataset’s framework using deep learning-based open-source perception algorithms that have shown success. We expect that our dataset will contribute to development of the marine autonomy pipeline and marine (field) robotics. Please note this is a work-in-progress paper about our on-going research that we plan to release in full via future publication.
arxiv情報
著者 | Mingi Jeong,Arihant Chadda,Ziang Ren,Luyang Zhao,Haowen Liu,Monika Roznere,Aiwei Zhang,Yitao Jiang,Sabriel Achong,Samuel Lensgraf,Alberto Quattrini Li |
発行日 | 2024-04-29 04:00:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google