要約
人間のような器用さを達成することは、コンタクトリッチシステムの計画と制御の複雑さのために、ロボット工学における長年の課題です。
Renforcement Learning(RL)では、1つの一般的なアプローチが、非常に平行化されたドメインランダム化シミュレーションを使用して、膨大な連絡先条件をめぐるポリシーを学習し、堅牢なSIMからReal転送を可能にすることでした。
リアルタイムの並列シミュレーションの最近の進歩に触発されたこの作業は、代わりに、有名な手元のキューブの再配向タスクを研究することにより、連絡先に豊富な操作のためのオンライン計画方法の実行可能性を考慮しています。
サンプリングベースの予測コントローラーとビジョンベースのポーズ推定器を使用して、オンラインで連絡先の制御アクションを検索するシンプルなアーキテクチャを提案します。
徹底的な実験を実施して、メソッドの実際のパフォーマンス、建築設計の選択、および堅牢性の重要な要因を評価し、単純なサンプリングベースのアプローチが以前のRLベースの作品に匹敵するパフォーマンスを達成することを実証します。
補足資料:https://caltech-amber.github.io/drop。
要約(オリジナル)
Achieving human-like dexterity is a longstanding challenge in robotics, in part due to the complexity of planning and control for contact-rich systems. In reinforcement learning (RL), one popular approach has been to use massively-parallelized, domain-randomized simulations to learn a policy offline over a vast array of contact conditions, allowing robust sim-to-real transfer. Inspired by recent advances in real-time parallel simulation, this work considers instead the viability of online planning methods for contact-rich manipulation by studying the well-known in-hand cube reorientation task. We propose a simple architecture that employs a sampling-based predictive controller and vision-based pose estimator to search for contact-rich control actions online. We conduct thorough experiments to assess the real-world performance of our method, architectural design choices, and key factors for robustness, demonstrating that our simple sampling-based approach achieves performance comparable to prior RL-based works. Supplemental material: https://caltech-amber.github.io/drop.
arxiv情報
著者 | Albert H. Li,Preston Culbertson,Vince Kurtz,Aaron D. Ames |
発行日 | 2025-03-05 18:55:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google