要約
ロボットは、目標オブジェクトを掴むことが望ましいが、他の存在物体が掴み動作を妨げるために実現できない状況にしばしば直面します。
この問題に対処するために、非常に乱雑な環境で目標オブジェクトを操作するためのポリシーの把握と推進を学習するための深層強化学習アプローチを紹介します。
特に、デュアル強化学習モデルのアプローチが提案されており、複雑なシーンの処理において高い回復力を示し、シミュレーション環境でプリミティブ オブジェクトを使用して平均 98% のタスク完了に達します。
提案されたアプローチのパフォーマンスを評価するために、パックされたオブジェクトと一連のオブジェクト シナリオで 2 つの広範な実験セットを実行し、シミュレーションで合計 1000 回のテストを実行しました。
実験結果は、提案された方法が両方のシナリオで非常にうまく機能し、最近の最先端のアプローチよりも優れていることを示しました。
結果の再現性を目的としたデモビデオ、トレーニング済みモデル、ソースコードが公開されています。
https://github.com/Kamalnl92/Self-Supervised-Learning-for-pushing-and-grasping。
要約(オリジナル)
Robots often face situations where grasping a goal object is desirable but not feasible due to other present objects preventing the grasp action. We present a deep Reinforcement Learning approach to learn grasping and pushing policies for manipulating a goal object in highly cluttered environments to address this problem. In particular, a dual Reinforcement Learning model approach is proposed, which presents high resilience in handling complicated scenes, reaching an average of 98% task completion using primitive objects in a simulation environment. To evaluate the performance of the proposed approach, we performed two extensive sets of experiments in packed objects and a pile of object scenarios with a total of 1000 test runs in simulation. Experimental results showed that the proposed method worked very well in both scenarios and outperformed the recent state-of-the-art approaches. Demo video, trained models, and source code for the results reproducibility purpose are publicly available. https://github.com/Kamalnl92/Self-Supervised-Learning-for-pushing-and-grasping.
arxiv情報
著者 | Kamal Mokhtar,Cock Heemskerk,Hamidreza Kasaei |
発行日 | 2024-02-18 08:51:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google