A Study on Learning Social Robot Navigation with Multimodal Perception

要約

自律移動ロボットは、搭載センサー (LiDAR や RGB カメラなど) で環境を認識し、適切なナビゲーションの決定を下す必要があります。
人間が居住する公共空間をナビゲートするためには、そのようなナビゲーションタスクは単に障害物を回避するだけではなく、周囲の人間と、根底にある社会規範に応じてナビゲーション行動を多少変更する意図、つまり社会に準拠することを考慮することも必要になります。
機械学習手法は、単純化されたモデルやコスト関数を明示的に手作業で作成することなく、データ駆動型の方法で複雑かつ微妙な社会的相互作用を捕捉するのに効果的であることが示されています。
利用可能な複数のセンサーモダリティと学習方法の効率を考慮して、この論文では、大規模な実世界のデータセットを使用したマルチモーダル知覚によるソーシャルロボットナビゲーションの学習に関する包括的な研究を紹介します。
この研究では、グローバルとローカルの両方の計画レベルでソーシャル ロボット ナビゲーションの意思決定を調査し、さまざまな社会シナリオにおける一連の古典的なナビゲーション アプローチに対してユニモーダル学習とマルチモーダル学習を対比するとともに、学習の観点からトレーニングと汎化性のパフォーマンスも分析しています。
また、マルチモーダルな知覚による学習が社会的コンプライアンスの認識にどのような影響を与えるかについての人体研究も実施しています。
結果は、データセットと人体研究の両方において、マルチモーダル学習がユニモーダル学習よりも明らかな利点があることを示しています。
私たちは、コミュニティが将来ソーシャル ロボット ナビゲーションを学習するためのマルチモーダル知覚を研究するために使用できるように、コードをオープンソース化します。

要約(オリジナル)

Autonomous mobile robots need to perceive the environments with their onboard sensors (e.g., LiDARs and RGB cameras) and then make appropriate navigation decisions. In order to navigate human-inhabited public spaces, such a navigation task becomes more than only obstacle avoidance, but also requires considering surrounding humans and their intentions to somewhat change the navigation behavior in response to the underlying social norms, i.e., being socially compliant. Machine learning methods are shown to be effective in capturing those complex and subtle social interactions in a data-driven manner, without explicitly hand-crafting simplified models or cost functions. Considering multiple available sensor modalities and the efficiency of learning methods, this paper presents a comprehensive study on learning social robot navigation with multimodal perception using a large-scale real-world dataset. The study investigates social robot navigation decision making on both the global and local planning levels and contrasts unimodal and multimodal learning against a set of classical navigation approaches in different social scenarios, while also analyzing the training and generalizability performance from the learning perspective. We also conduct a human study on how learning with multimodal perception affects the perceived social compliance. The results show that multimodal learning has a clear advantage over unimodal learning in both dataset and human studies. We open-source our code for the community’s future use to study multimodal perception for learning social robot navigation.

arxiv情報

著者 Bhabaranjan Panigrahi,Amir Hossain Raj,Mohammad Nazeri,Xuesu Xiao
発行日 2023-09-22 01:47:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク