Online Context Learning for Socially-compliant Navigation

要約

ロボットのソーシャル ナビゲーションは、さまざまな人間的要因や環境状況に適応する必要があります。
ただし、これらの要因とコンテキストは予測が難しく、網羅的に列挙することができないため、従来の学習ベースの手法では、長期的かつ環境を超えた展開においてロボットの社会的属性を確保することが困難です。
この手紙では、ロボットがオンラインの新しい社会環境に適応できるようにすることを目的とした、オンラインのコンテキスト学習方法を紹介します。
提案手法は 2 層構造を採用している。
最下層は、基本的なロボット ナビゲーション コマンドの出力を保証するために、深層強化学習ベースの方法を使用して構築されています。
上位層は、オンラインロボット学習ベースの方法を使用して実装され、下位層によって提案された制御コマンドをソーシャル化します。
コミュニティ全体のシミュレーターを使用した実験では、私たちの方法が最先端の方法よりも優れていることが示されています。
最も困難なシナリオでの実験結果は、私たちの方法が最先端のパフォーマンスを 8% 向上させることを示しています。
提案されたメソッドのソース コード、使用されるデータ、トレーニング ステップごとのツールは、https://github.com/Nedzhaken/SOCSARL-OL で公開されます。

要約(オリジナル)

Robot social navigation needs to adapt to different human factors and environmental contexts. However, since these factors and contexts are difficult to predict and cannot be exhaustively enumerated, traditional learning-based methods have difficulty in ensuring the social attributes of robots in long-term and cross-environment deployments. This letter introduces an online context learning method that aims to empower robots to adapt to new social environments online. The proposed method adopts a two-layer structure. The bottom layer is built using a deep reinforcement learning-based method to ensure the output of basic robot navigation commands. The upper layer is implemented using an online robot learning-based method to socialize the control commands suggested by the bottom layer. Experiments using a community-wide simulator show that our method outperforms the state-of-the-art ones. Experimental results in the most challenging scenarios show that our method improves the performance of the state-of-the-art by 8%. The source code of the proposed method, the data used, and the tools for the per-training step will be publicly available at https://github.com/Nedzhaken/SOCSARL-OL.

arxiv情報

著者 Iaroslav Okunevich,Alexandre Lombard,Tomas Krajnik,Yassine Ruichek,Zhi Yan
発行日 2024-06-17 12:59:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク