Co-GAIL: Learning Diverse Strategies for Human-Robot Collaboration

要約

人とロボットの協調動作のデモンストレーションから人間とロボットの協調動作ポリシーを学習する方法を提案します。
有能なロボット アシスタントは、デモンストレーションで示される人間の多様な行動を処理する方法を学習し、オンライン タスクの実行中に人間が戦略を調整する際に堅牢である必要があります。
私たちの手法は、対話型学習プロセスにおいて人間のポリシーとロボットのポリシーを共同最適化します。つまり、人間のポリシーはデモンストレーションから多様でもっともらしい協力行動を生成することを学習し、ロボットのポリシーは人間の協力者の観察されていない潜在的な戦略を推定することによって支援することを学習します。
2D ストラテジー ゲーム、人間とロボットのハンドオーバー タスク、および複数ステップの共同操作タスクにわたって、私たちの方法は、シミュレーションによる評価と、実際の人間のオペレーターがループ内でタスクを実行する場合の両方で、代替方法よりも優れたパフォーマンスを発揮します。
補足資料とビデオは https://sites.google.com/view/co-gail-web/home にあります。

要約(オリジナル)

We present a method for learning a human-robot collaboration policy from human-human collaboration demonstrations. An effective robot assistant must learn to handle diverse human behaviors shown in the demonstrations and be robust when the humans adjust their strategies during online task execution. Our method co-optimizes a human policy and a robot policy in an interactive learning process: the human policy learns to generate diverse and plausible collaborative behaviors from demonstrations while the robot policy learns to assist by estimating the unobserved latent strategy of its human collaborator. Across a 2D strategy game, a human-robot handover task, and a multi-step collaborative manipulation task, our method outperforms the alternatives in both simulated evaluations and when executing the tasks with a real human operator in-the-loop. Supplementary materials and videos at https://sites.google.com/view/co-gail-web/home

arxiv情報

著者 Chen Wang,Claudia Pérez-D’Arpino,Danfei Xu,Li Fei-Fei,C. Karen Liu,Silvio Savarese
発行日 2023-09-20 16:45:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク