HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation

要約

タイトル:HabitatDynのデータセット:キネマティクス推定に対する動的オブジェクト検出

要約:
– データセットは、コンピュータビジョンと機械学習の進歩により、さらなる研究と応用のために極めて重要な要素になっている。
– しかし、高度な認識能力を持つロボットの創造や開発は、適切なデータセットの不足によって妨げられている。
– 既存の画像またはビデオ処理のデータセットは、移動するロボットからの観測を正確に描写することができず、ロボットタスクに必要なキネマティクス情報も含まれていない。
– 一方、シンセティックデータはコスト効果が高く、様々な応用に適応する柔軟性があるため、研究や産業の両方で広く利用されています。
– この論文では、HabitatDynというデータセットを提案し、6種類の移動オブジェクトを持つ30のシーンを含み、移動カメラを持つモバイルロボットの視点から作成しました。このデータセットには、シンセティックなRGBビデオ、セマンティックラベル、および深度情報とともに、キネマティクス情報も含まれます。
– このデータセットの有用性を示すために、既存の2つのアルゴリズムを使用して評価し、これらのセグメンテーション方法に基づくオブジェクトとカメラの距離の推定方法を実装し、データセットを通じて評価しました。
– このデータセットが利用可能になることで、モバイルロボットの分野でさらなる進歩が促進され、より能力の高い、より知能的なロボットがより効果的に環境を認識して相互作用することができるようになることを目指しています。コードは公開されています:https://github.com/ignc-research/HabitatDyn.

要約(オリジナル)

The advancement of computer vision and machine learning has made datasets a crucial element for further research and applications. However, the creation and development of robots with advanced recognition capabilities are hindered by the lack of appropriate datasets. Existing image or video processing datasets are unable to accurately depict observations from a moving robot, and they do not contain the kinematics information necessary for robotic tasks. Synthetic data, on the other hand, are cost-effective to create and offer greater flexibility for adapting to various applications. Hence, they are widely utilized in both research and industry. In this paper, we propose the dataset HabitatDyn, which contains both synthetic RGB videos, semantic labels, and depth information, as well as kinetics information. HabitatDyn was created from the perspective of a mobile robot with a moving camera, and contains 30 scenes featuring six different types of moving objects with varying velocities. To demonstrate the usability of our dataset, two existing algorithms are used for evaluation and an approach to estimate the distance between the object and camera is implemented based on these segmentation methods and evaluated through the dataset. With the availability of this dataset, we aspire to foster further advancements in the field of mobile robotics, leading to more capable and intelligent robots that can navigate and interact with their environments more effectively. The code is publicly available at https://github.com/ignc-research/HabitatDyn.

arxiv情報

著者 Zhengcheng Shen,Yi Gao,Linh Kästner,Jens Lambrecht
発行日 2023-04-21 09:57:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク