要約
この作業は、器用な把握のための視覚アクション(VA)モデルの一般化を改善するための強化学習(RL)駆動型のデータ増強を提示します。
いくつかの実際のデモンストレーションが大規模なシミュレーションデータをシードしている実際のフレームワークは、VAモデルに効果的であることが証明されていますが、それらを器用な設定に適用することは困難なままです。
これに対処するために、RLを活用して、さまざまなジオメトリ全体で接触豊富な把握データを生成します。
実際のパラダイムに沿って、把握スキルは、RLを介して学習した残差ポリシーによって洗練されたパラメーター化された調整可能な参照軌跡として定式化されます。
このモジュラー設計により、実際のデモンストレーションと一致し、多様なオブジェクトのジオメトリに適応できる軌道レベルの制御が可能になります。
シミュレーションが整ったデータでトレーニングされた視覚条件のポリシーは、目に見えないオブジェクトに対する強力な一般化を示しており、VAモデルのトレーニングでデータボトルネックを軽減するアプローチの可能性を強調しています。
要約(オリジナル)
This work presents reinforcement learning (RL)-driven data augmentation to improve the generalization of vision-action (VA) models for dexterous grasping. While real-to-sim-to-real frameworks, where a few real demonstrations seed large-scale simulated data, have proven effective for VA models, applying them to dexterous settings remains challenging: obtaining stable multi-finger contacts is nontrivial across diverse object shapes. To address this, we leverage RL to generate contact-rich grasping data across varied geometries. In line with the real-to-sim-to-real paradigm, the grasp skill is formulated as a parameterized and tunable reference trajectory refined by a residual policy learned via RL. This modular design enables trajectory-level control that is both consistent with real demonstrations and adaptable to diverse object geometries. A vision-conditioned policy trained on simulation-augmented data demonstrates strong generalization to unseen objects, highlighting the potential of our approach to alleviate the data bottleneck in training VA models.
arxiv情報
著者 | Atsushi Kanehira,Naoki Wake,Kazuhiro Sasabuchi,Jun Takamatsu,Katsushi Ikeuchi |
発行日 | 2025-04-25 05:21:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google