要約
掴まない操作として知られる、握らない操作は、接触の多い環境における器用なロボットにとって不可欠ですが、作動不足、ハイブリッドダイナミクス、摩擦の不確実性などに関連する多くの課題を伴います。
さらに、接触が不確実なシナリオでの物体のオクルージョンや、物体の動きがロボットから独立して進化する場合は、重大な問題になりますが、これまでの文献では対処できていません。
シミュレーションで訓練された特権ポリシーからの多様なインタラクションデータを活用することにより、オクルージョン下での非捕捉性操作のための視覚触覚状態推定器と不確実性を認識した制御ポリシーを学習する方法を提案します。
ベイジアン深層学習フレームワーク内で推定量を定式化してその不確実性をモデル化し、事前学習した推定量を強化学習 (RL) ループに組み込むことで不確実性を考慮した制御ポリシーをトレーニングします。どちらも推定量とポリシーの大幅な改善につながります。
パフォーマンス。
したがって、複雑な外部知覚設定に依存する以前の把握不可能な研究とは異なり、私たちの方法は、単純なオンボードカメラを備えたロボットハードウェアへのシミュレーションからリアルへの転送後のオクルージョンをうまく処理します。
ビデオをご覧ください: https://youtu.be/hW-C8i_HWgs
要約(オリジナル)
Manipulation without grasping, known as non-prehensile manipulation, is essential for dexterous robots in contact-rich environments, but presents many challenges relating with underactuation, hybrid-dynamics, and frictional uncertainty. Additionally, object occlusions in a scenario of contact uncertainty and where the motion of the object evolves independently from the robot becomes a critical problem, which previous literature fails to address. We present a method for learning visuotactile state estimators and uncertainty-aware control policies for non-prehensile manipulation under occlusions, by leveraging diverse interaction data from privileged policies trained in simulation. We formulate the estimator within a Bayesian deep learning framework, to model its uncertainty, and then train uncertainty-aware control policies by incorporating the pre-learned estimator into the reinforcement learning (RL) loop, both of which lead to significantly improved estimator and policy performance. Therefore, unlike prior non-prehensile research that relies on complex external perception set-ups, our method successfully handles occlusions after sim-to-real transfer to robotic hardware with a simple onboard camera. See our video: https://youtu.be/hW-C8i_HWgs.
arxiv情報
著者 | Juan Del Aguila Ferrandis,João Moura,Sethu Vijayakumar |
発行日 | 2024-12-17 18:33:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google