Human-Inspired Multi-Agent Navigation using Knowledge Distillation

要約

マルチエージェント ナビゲーションの分野では大きな進歩が見られましたが、エージェントには依然として、マルチエージェント環境で人間が示す洗練さと知性が欠けています。
この論文では、完全に分散されたマルチエージェント環境におけるエージェント間の相互作用のための、人間のような一般的な衝突回避ポリシーを学習するためのフレームワークを提案します。
私たちのアプローチでは、強化学習による知識の蒸留を使用して、行動の複製を通じて人間の軌跡のデモンストレーションから抽出された専門家のポリシーに基づいて報酬関数を形成します。
私たちのアプローチで訓練されたエージェントは、デモンストレーションでは提供されなかった衝突回避や目標指向のステアリングタスクにおいて人間のような軌道を描くことができ、知識の蒸留なしで訓練された学習ベースのエージェントだけでなく専門家よりも優れたパフォーマンスを発揮できることを示しました。

要約(オリジナル)

Despite significant advancements in the field of multi-agent navigation, agents still lack the sophistication and intelligence that humans exhibit in multi-agent settings. In this paper, we propose a framework for learning a human-like general collision avoidance policy for agent-agent interactions in fully decentralized, multi-agent environments. Our approach uses knowledge distillation with reinforcement learning to shape the reward function based on expert policies extracted from human trajectory demonstrations through behavior cloning. We show that agents trained with our approach can take human-like trajectories in collision avoidance and goal-directed steering tasks not provided by the demonstrations, outperforming the experts as well as learning-based agents trained without knowledge distillation.

arxiv情報

著者 Pei Xu,Ioannis Karamouzas
発行日 2023-08-29 00:09:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク