Sim-and-Real Reinforcement Learning for Manipulation: A Consensus-based Approach

要約

Sim-and-real トレーニングは、ロボット操作の sim-to-real トレーニングに代わる有望な方法です。
ただし、現在の sim-and-real トレーニングは効率的ではありません。つまり、最適なポリシーへの収束が遅く、効果的でもありません。つまり、かなりの現実世界のロボット データです。
限られた時間とハードウェアの予算を考えると、sim-and-real トレーニングのパフォーマンスは満足のいくものではありません。
この論文では、マニピュレータのピックアンドプレースタスク用のコンセンサスベースの Sim-And-Real 深層強化学習アルゴリズム (CSAR) を提案します。これは、sim と現実の両方の世界で同等のパフォーマンスを示します。
このアルゴリズムでは、シミュレーションと現実の世界の両方に最適なポリシーを取得するために、シミュレーターと現実の世界でエージェントをトレーニングします。
2 つの興味深い現象が見つかりました。(1) シミュレーションでの最適なポリシーは、シミュレーションと実際のトレーニングでは最適ではありません。
(2) シミュレーション エージェントが多いほど、シミュレーションとリアルのトレーニングが向上します。
実験的なビデオは、https://youtu.be/mcHJtNIsTEQ で入手できます。

要約(オリジナル)

Sim-and-real training is a promising alternative to sim-to-real training for robot manipulations. However, the current sim-and-real training is neither efficient, i.e., slow convergence to the optimal policy, nor effective, i.e., sizeable real-world robot data. Given limited time and hardware budgets, the performance of sim-and-real training is not satisfactory. In this paper, we propose a Consensus-based Sim-And-Real deep reinforcement learning algorithm (CSAR) for manipulator pick-and-place tasks, which shows comparable performance in both sim-and-real worlds. In this algorithm, we train the agents in simulators and the real world to get the optimal policies for both sim-and-real worlds. We found two interesting phenomenons: (1) Best policy in simulation is not the best for sim-and-real training. (2) The more simulation agents, the better sim-and-real training. The experimental video is available at: https://youtu.be/mcHJtNIsTEQ.

arxiv情報

著者 Wenxing Liu,Hanlin Niu,Wei Pan,Guido Herrmann,Joaquin Carrasco
発行日 2023-02-26 22:27:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク