要約
ロボットのソーシャルナビゲーションは、さまざまな人的要因と環境コンテキストに適応する必要があります。
ただし、これらの要因とコンテキストは予測が困難であり、徹底的に列挙することはできないため、従来の学習ベースの方法は、長期および環境の展開におけるロボットの社会的属性を確保するのが困難です。
この手紙は、ロボットがオンラインで新しい社会環境に適応できるようにすることを目的とするオンラインコンテキスト学習方法を紹介します。
提案された方法は、2層構造を採用します。
最下層は、基本的なロボットナビゲーションコマンドの出力を確保するために、深い強化学習ベースの方法を使用して構築されています。
上層層は、オンラインロボット学習ベースの方法を使用して実装され、最下層で提案されたコントロールコマンドをソーシャル化します。
コミュニティ全体のシミュレーターを使用した実験は、私たちの方法が最先端のものよりも優れていることを示しています。
最も困難なシナリオでの実験結果は、私たちの方法が最先端のパフォーマンスを8%改善することを示しています。
提案された方法のソースコード、使用されたデータ、およびトレーニングごとのステップのツールは、https://github.com/nedzhaken/socsarl-olで公開されています。
要約(オリジナル)
Robot social navigation needs to adapt to different human factors and environmental contexts. However, since these factors and contexts are difficult to predict and cannot be exhaustively enumerated, traditional learning-based methods have difficulty in ensuring the social attributes of robots in long-term and cross-environment deployments. This letter introduces an online context learning method that aims to empower robots to adapt to new social environments online. The proposed method adopts a two-layer structure. The bottom layer is built using a deep reinforcement learning-based method to ensure the output of basic robot navigation commands. The upper layer is implemented using an online robot learning-based method to socialize the control commands suggested by the bottom layer. Experiments using a community-wide simulator show that our method outperforms the state-of-the-art ones. Experimental results in the most challenging scenarios show that our method improves the performance of the state-of-the-art by 8%. The source code of the proposed method, the data used, and the tools for the per-training step are publicly available at https://github.com/Nedzhaken/SOCSARL-OL.
arxiv情報
著者 | Iaroslav Okunevich,Alexandre Lombard,Tomas Krajnik,Yassine Ruichek,Zhi Yan |
発行日 | 2025-03-14 10:41:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google