Grammarization-Based Grasping with Deep Multi-Autoencoder Latent Space Exploration by Reinforcement Learning Agent

要約

物体の形状、材料特性、その他の環境要因の幅広い変動に効果的に適応する必要があるため、構造化されていない環境でロボットによる掴みは重要な課題であると考えられています。
この論文では、オートエンコーダのセットを使用して、高次元のターゲットとグリッパーの特徴を共通の潜在空間に圧縮するというアイデアに基づいて、ロボットによる把握のための新しいフレームワークを提案します。
私たちのアプローチは、ターゲット専用の 3 つのオートエンコーダー、グリッパー、およびそれらの潜在表現を融合する 3 つ目のオートエンコーダーを使用することで把握を簡素化します。
これにより、RL エージェントは、新しい環境の探索の初期段階やゼロ以外のショット 把握試行時に、より高い学習率を達成できます。
エージェントは、オブジェクトを明示的に再構築することなく、より質の高い把握を行うために、3 番目のオートエンコーダーの潜在空間を探索します。
PoWER アルゴリズムを RL トレーニング プロセスに実装することにより、エージェントのポリシーの更新は報酬重み付き潜在空間の摂動を通じて行われます。
探索が成功すると、位置とポーズの両方の整合性が効率的に制約され、把握が実行可能になります。
さまざまなオブジェクトのセットでシステムを評価し、最小限の計算オーバーヘッドで把握の高い成功率を実証しました。
シミュレーション実験では、このアプローチにより RL エージェントの適応が 35 % 以上向上することがわかりました。

要約(オリジナル)

Grasping by a robot in unstructured environments is deemed a critical challenge because of the requirement for effective adaptation to a wide variation in object geometries, material properties, and other environmental factors. In this paper, we propose a novel framework for robotic grasping based on the idea of compressing high-dimensional target and gripper features in a common latent space using a set of autoencoders. Our approach simplifies grasping by using three autoencoders dedicated to the target, the gripper, and a third one that fuses their latent representations. This allows the RL agent to achieve higher learning rates at the initial stages of exploration of a new environment, as well as at non-zero shot grasp attempts. The agent explores the latent space of the third autoencoder for better quality grasp without explicit reconstruction of objects. By implementing the PoWER algorithm into the RL training process, updates on the agent’s policy will be made through the perturbation in the reward-weighted latent space. The successful exploration efficiently constrains both position and pose integrity for feasible executions of grasps. We evaluate our system on a diverse set of objects, demonstrating the high success rate in grasping with minimum computational overhead. We found that approach enhances the adaptation of the RL agent by more than 35 % in simulation experiments.

arxiv情報

著者 Leonidas Askianakis
発行日 2024-11-19 16:03:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク