DROP: Dexterous Reorientation via Online Planning

要約

人間のような器用さを実現することは、ロボット工学における長年の課題であり、その理由の 1 つは接触の多いシステムの計画と制御の複雑さです。
強化学習 (RL) における一般的なアプローチの 1 つは、大規模並列化されたドメインランダム化シミュレーションを使用して、膨大な接触条件にわたってオフラインでポリシーを学習し、堅牢なシミュレーションからリアルへの転送を可能にするというものです。
リアルタイム並列シミュレーションの最近の進歩に触発されたこの研究では、代わりに、よく知られている手持ち立方体の再方向付けタスクを研究することによって、接触の多い操作のためのオンライン計画方法の実現可能性を検討します。
我々は、サンプリングベースの予測コントローラーとビジョンベースの姿勢推定器を採用し、接触が多い制御アクションをオンラインで検索するシンプルなアーキテクチャを提案します。
私たちは徹底的な実験を行って、メソッドの実際のパフォーマンス、アーキテクチャ設計の選択、堅牢性の重要な要素を評価し、シンプルなサンプリングベースのアプローチが以前の RL ベースの研究に匹敵するパフォーマンスを達成できることを実証しました。
補足資料: https://caltech-amber.github.io/drop。

要約(オリジナル)

Achieving human-like dexterity is a longstanding challenge in robotics, in part due to the complexity of planning and control for contact-rich systems. In reinforcement learning (RL), one popular approach has been to use massively-parallelized, domain-randomized simulations to learn a policy offline over a vast array of contact conditions, allowing robust sim-to-real transfer. Inspired by recent advances in real-time parallel simulation, this work considers instead the viability of online planning methods for contact-rich manipulation by studying the well-known in-hand cube reorientation task. We propose a simple architecture that employs a sampling-based predictive controller and vision-based pose estimator to search for contact-rich control actions online. We conduct thorough experiments to assess the real-world performance of our method, architectural design choices, and key factors for robustness, demonstrating that our simple sampling-based approach achieves performance comparable to prior RL-based works. Supplemental material: https://caltech-amber.github.io/drop.

arxiv情報

著者 Albert H. Li,Preston Culbertson,Vince Kurtz,Aaron D. Ames
発行日 2024-10-01 04:50:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク