要約
モバイル把握はロボットの機動性を利用して操作効率を高めます。
この研究は、正確なタイミングと姿勢の調整が必要な、移動式の掴みを市販のロボットで実現できるようにすることを目的としています。
自己教師あり学習では、ロボットの速度を調整し、ターゲット オブジェクトの形状と姿勢に基づいて把握位置と方向を決定するための一般化可能なポリシーを開発できます。
モバイル把握は複雑であるため、試行錯誤から学習する際のデータの希薄化を避けるためには、アクションのプリミティブ化と段階的な学習が重要です。
この研究では、移動による把握を 2 つの把握アクション プリミティブと 1 つの移動アクション プリミティブに単純化し、マニピュレータの自由度を制限して操作できます。
この研究では、視覚入力からの静的把握プリミティブ、動的把握プリミティブ、および残留移動速度誤差を予測するための 3 つの完全畳み込みニューラル ネットワーク (FCN) モデルを導入します。
2 段階の把握学習アプローチにより、シームレスな FCN モデル学習が容易になります。
アブレーション研究では、提案された方法が最高の把握精度とピックアンドプレースの効率を達成することが実証されました。
さらに、シミュレーションでオブジェクトの形状と環境をランダム化することで、一般化可能なモバイル把握を効果的に実現しました。
要約(オリジナル)
Mobile grasping enhances manipulation efficiency by utilizing robots’ mobility. This study aims to enable a commercial off-the-shelf robot for mobile grasping, requiring precise timing and pose adjustments. Self-supervised learning can develop a generalizable policy to adjust the robot’s velocity and determine grasp position and orientation based on the target object’s shape and pose. Due to mobile grasping’s complexity, action primitivization and step-by-step learning are crucial to avoid data sparsity in learning from trial and error. This study simplifies mobile grasping into two grasp action primitives and a moving action primitive, which can be operated with limited degrees of freedom for the manipulator. This study introduces three fully convolutional neural network (FCN) models to predict static grasp primitive, dynamic grasp primitive, and residual moving velocity error from visual inputs. A two-stage grasp learning approach facilitates seamless FCN model learning. The ablation study demonstrated that the proposed method achieved the highest grasping accuracy and pick-and-place efficiency. Furthermore, randomizing object shapes and environments in the simulation effectively achieved generalizable mobile grasping.
arxiv情報
著者 | Takuya Kiyokawa,Eiki Nagata,Yoshihisa Tsurumine,Yuhwan Kwon,Takamitsu Matsubara |
発行日 | 2024-11-15 02:59:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google