UNO Push: Unified Nonprehensile Object Pushing via Non-Parametric Estimation and Model Predictive Control

要約

正確な押し込みによる把握しにくい操作は、接触、物体の幾何学形状、物理的特性に関連する認識や物理的不確実性によって一般的に課題となっている重要なスキルです。
このために、システムのモデリング、アクションの生成、制御に共同で取り組む統一フレームワークを提案します。
既存のアプローチのほとんどは、分析モデリングのために先験的なシステム情報に大きく依存するか、動的モデルを学習するために大規模なデータセットを活用しますが、私たちのフレームワークは、少数の探索的アクションのみを使用してノンパラメトリック学習を介してシステム遷移関数を近似します(約 10
)。
次に、近似関数はモデル予測制御と統合され、正確な押し込み操作が提供されます。
さらに、近似システム遷移関数がオンライン更新されながら新しいオブジェクト間で堅牢に転送され、操作精度が継続的に向上することを示します。
一連の新しいオブジェクトを使用した実際のロボット プラットフォームでの広範な実験と最先端のベースラインとの比較を通じて、提案された統合フレームワークが軽量で非常に効果的なアプローチであり、正確な押し操作を可能にすることを示します。
自体。
私たちの評価結果は、このシステムがミリメートルレベルの精度を確実に保証し、あらゆる新しいオブジェクトに対して直接作業できることを示しています。

要約(オリジナル)

Nonprehensile manipulation through precise pushing is an essential skill that has been commonly challenged by perception and physical uncertainties, such as those associated with contacts, object geometries, and physical properties. For this, we propose a unified framework that jointly addresses system modeling, action generation, and control. While most existing approaches either heavily rely on a priori system information for analytic modeling, or leverage a large dataset to learn dynamic models, our framework approximates a system transition function via non-parametric learning only using a small number of exploratory actions (ca. 10). The approximated function is then integrated with model predictive control to provide precise pushing manipulation. Furthermore, we show that the approximated system transition functions can be robustly transferred across novel objects while being online updated to continuously improve the manipulation accuracy. Through extensive experiments on a real robot platform with a set of novel objects and comparing against a state-of-the-art baseline, we show that the proposed unified framework is a light-weight and highly effective approach to enable precise pushing manipulation all by itself. Our evaluation results illustrate that the system can robustly ensure millimeter-level precision and can straightforwardly work on any novel object.

arxiv情報

著者 Gaotian Wang,Kejia Ren,Kaiyu Hang
発行日 2024-03-20 03:17:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク