Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of Demonstrations for Social Navigation

要約

ソーシャルナビゲーションとは、ロボットなどの自律エージェントが、人間などの他の知的エージェントの存在下で「社会に適合した」方法でナビゲートする能力のことである。人間が生活する環境において自律的に航行する移動ロボット(家庭やレストランでの家事ロボット、公共の歩道での配膳ロボットなど)の出現により、これらのロボットに社会適合的なナビゲーション行動を組み込むことが、安全で快適な人間ロボットとの共存を確保するために重要になる。この課題に対して、社会的ナビゲーションの複雑な多目的設定を正確に捉える報酬関数を定式化するよりも、人間が社会的ナビゲーションのタスクを実演する方が簡単であるため、模倣学習は有望なフレームワークである。しかし、模倣学習や逆強化学習を移動ロボットの社会航行に利用することは、現在、野生の社会適合型ロボットのナビゲーション実演を捉えた大規模なデータセットがないことが障害となっている。このギャップを埋めるために、我々は社会的コンプライアンスナビゲーションデータセット(SCAND)を紹介します。このデータセットには、3Dライダー、ジョイスティックコマンド、オドメトリ、視覚、慣性情報などのマルチモーダルデータストリームからなる、8.7時間、138軌道、25マイルの人間遠隔操作による運転デモが含まれており、屋内外の環境で4人の異なる人間のデモ担当者が2台の形態的に異なる移動ロボット(ボストンダイナミックス製スポットとクリアパスジャッカル)で収集したものです。さらに、実環境でのロボット実験による予備的な解析と検証を行い、SCAND上の模倣学習によって学習されたナビゲーションポリシーが、社会的コンプライアンスに基づいた行動を生成することを示す。

要約(オリジナル)

Social navigation is the capability of an autonomous agent, such as a robot, to navigate in a ‘socially compliant’ manner in the presence of other intelligent agents such as humans. With the emergence of autonomously navigating mobile robots in human populated environments (e.g., domestic service robots in homes and restaurants and food delivery robots on public sidewalks), incorporating socially compliant navigation behaviors on these robots becomes critical to ensuring safe and comfortable human robot coexistence. To address this challenge, imitation learning is a promising framework, since it is easier for humans to demonstrate the task of social navigation rather than to formulate reward functions that accurately capture the complex multi objective setting of social navigation. The use of imitation learning and inverse reinforcement learning to social navigation for mobile robots, however, is currently hindered by a lack of large scale datasets that capture socially compliant robot navigation demonstrations in the wild. To fill this gap, we introduce Socially CompliAnt Navigation Dataset (SCAND) a large scale, first person view dataset of socially compliant navigation demonstrations. Our dataset contains 8.7 hours, 138 trajectories, 25 miles of socially compliant, human teleoperated driving demonstrations that comprises multi modal data streams including 3D lidar, joystick commands, odometry, visual and inertial information, collected on two morphologically different mobile robots a Boston Dynamics Spot and a Clearpath Jackal by four different human demonstrators in both indoor and outdoor environments. We additionally perform preliminary analysis and validation through real world robot experiments and show that navigation policies learned by imitation learning on SCAND generate socially compliant behaviors

arxiv情報

著者 Haresh Karnan,Anirudh Nair,Xuesu Xiao,Garrett Warnell,Soeren Pirk,Alexander Toshev,Justin Hart,Joydeep Biswas,Peter Stone
発行日 2022-06-08 20:24:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, cs.RO, cs.SY, eess.SY パーマリンク