要約
シーン点群入力からのエンドツーエンドの準リアルタイム SE(3) 等変ロボット操作模倣学習フレームワークである RiEMann を紹介します。
記述子フィールドのマッチングに依存する以前の方法と比較して、RiEMann は、オブジェクトのセグメント化を行わずに、操作対象のオブジェクトのターゲット ポーズを直接予測します。
RiEMann は 5 ~ 10 のデモンストレーションで操作タスクをゼロから学習し、目に見えない SE(3) 変換とターゲット オブジェクトのインスタンスに一般化し、気が散るオブジェクトの視覚的干渉に抵抗し、ターゲット オブジェクトのほぼリアルタイムの姿勢変化を追跡します。
RiEMann のスケーラブルなアクション スペースにより、蛇口を回す方向などのカスタムの等価アクションの追加が容易になり、RiEMann で多関節オブジェクトの操作が可能になります。
シミュレーションと現実世界の 6-DOF ロボット操作実験では、合計 25 のバリアントを含む 5 つのカテゴリの操作タスクで RiEMann をテストし、RiEMann がタスクの成功率と予測ポーズでの SE(3) 測地距離誤差の両方でベースラインを上回っていることを示しました。
(68.6% 削減)、5.4 フレーム/秒 (FPS) のネットワーク推論速度を実現します。
コードとビデオの結果は https://riemann-web.github.io/ で入手できます。
要約(オリジナル)
We present RiEMann, an end-to-end near Real-time SE(3)-Equivariant Robot Manipulation imitation learning framework from scene point cloud input. Compared to previous methods that rely on descriptor field matching, RiEMann directly predicts the target poses of objects for manipulation without any object segmentation. RiEMann learns a manipulation task from scratch with 5 to 10 demonstrations, generalizes to unseen SE(3) transformations and instances of target objects, resists visual interference of distracting objects, and follows the near real-time pose change of the target object. The scalable action space of RiEMann facilitates the addition of custom equivariant actions such as the direction of turning the faucet, which makes articulated object manipulation possible for RiEMann. In simulation and real-world 6-DOF robot manipulation experiments, we test RiEMann on 5 categories of manipulation tasks with a total of 25 variants and show that RiEMann outperforms baselines in both task success rates and SE(3) geodesic distance errors on predicted poses (reduced by 68.6%), and achieves a 5.4 frames per second (FPS) network inference speed. Code and video results are available at https://riemann-web.github.io/.
arxiv情報
著者 | Chongkai Gao,Zhengrong Xue,Shuying Deng,Tianhai Liang,Siqi Yang,Lin Shao,Huazhe Xu |
発行日 | 2024-03-28 14:31:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google