THÖR-MAGNI: A Large-scale Indoor Motion Capture Recording of Human Movement and Robot Interaction

要約

我々は、TH\’OR-MAGNI と呼ばれる屋内の人間とロボットのナビゲーションとインタラクションに関する新しい大規模なデータセットを紹介します。これは、ソーシャル ナビゲーションに関する研究を促進するように設計されています。たとえば、人間の動きのモデリングと予測、人間とロボットの間の目標指向のインタラクションの分析などです。
、そして社会的相互作用の文脈における視覚的注意を調査します。
TH\’OR-MAGNI は、人間の動作分析と HRI に利用可能なデータセットのギャップを埋めるために作成されました。
このギャップは、外因性の要因と重要な標的エージェントの手がかりが包括的に含まれていないことを特徴とし、さまざまなシナリオにおける文脈上の手がかりと人間の行動の関係を捉えることができる堅牢なモデルの開発を妨げています。
既存のデータセットとは異なり、TH\’OR-MAGNI には広範なコンテキスト特徴が含まれており、要因の分離を容易にする複数のシナリオのバリエーションが提供されます。
このデータセットには、人間と人間、および人間とロボットの社会的な相互作用シナリオ、リッチ コンテキスト アノテーション、および歩行軌跡、視線追跡データ、モバイル ロボットから記録された LIDAR およびカメラ ストリームなどのマルチモーダル データが多数含まれています。
記録されたデータの視覚化と処理のためのツール セットも提供します。
私たちの知る限り、TH\’OR-MAGNI は、コンテキスト化された社会的に動的な環境で収集されるセンサー データの量と多様性において独特であり、人間とロボットの自然なインタラクションをキャプチャします。

要約(オリジナル)

We present a new large dataset of indoor human and robot navigation and interaction, called TH\’OR-MAGNI, that is designed to facilitate research on social navigation: e.g., modelling and predicting human motion, analyzing goal-oriented interactions between humans and robots, and investigating visual attention in a social interaction context. TH\’OR-MAGNI was created to fill a gap in available datasets for human motion analysis and HRI. This gap is characterized by a lack of comprehensive inclusion of exogenous factors and essential target agent cues, which hinders the development of robust models capable of capturing the relationship between contextual cues and human behavior in different scenarios. Unlike existing datasets, TH\’OR-MAGNI includes a broader set of contextual features and offers multiple scenario variations to facilitate factor isolation. The dataset includes many social human-human and human-robot interaction scenarios, rich context annotations, and multi-modal data, such as walking trajectories, gaze tracking data, and lidar and camera streams recorded from a mobile robot. We also provide a set of tools for visualization and processing of the recorded data. TH\’OR-MAGNI is, to the best of our knowledge, unique in the amount and diversity of sensor data collected in a contextualized and socially dynamic environment, capturing natural human-robot interactions.

arxiv情報

著者 Tim Schreiter,Tiago Rodrigues de Almeida,Yufei Zhu,Eduardo Gutierrez Maestro,Lucas Morillo-Mendez,Andrey Rudenko,Luigi Palmieri,Tomasz P. Kucner,Martin Magnusson,Achim J. Lilienthal
発行日 2024-03-14 11:12:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク