OrbitGrasp: $SE(3)$-Equivariant Grasp Learning

要約

把握検出はロボット操作パイプラインの重要な部分ですが、$SE(3)$ における信頼性が高く正確な把握検出は依然として研究課題です。
家庭や倉庫などの非構造化環境における多くのロボット アプリケーションは、把握パフォーマンスの向上により大きな恩恵を受けるでしょう。
この論文は、点群入力に基づいて $SE(3)$ 把握ポーズを検出するための新しいフレームワークを提案します。
私たちの主な貢献は、球面調和基底を使用して雲内の各点を 2 球面 $S^2$ にわたる連続把握品質関数にマッピングする $SE(3)$ 等変モデルを提案することです。
有限のサンプルセットに関する推論と比較して、この定式化により、多数のサンプルが必要となる場合のモデルの精度と効率が向上します。
これを達成するために、UNet スタイルのエンコーダ/デコーダ アーキテクチャを利用してモデルが処理できるポイントの数を増やす EquiFormerV2 の新しいバリエーションを提案します。
$\textit{OrbitGrasp}$ と名付けた結果のメソッドは、シミュレーションと物理実験の両方でベースラインを大幅に上回りました。

要約(オリジナル)

While grasp detection is an important part of any robotic manipulation pipeline, reliable and accurate grasp detection in $SE(3)$ remains a research challenge. Many robotics applications in unstructured environments such as the home or warehouse would benefit a lot from better grasp performance. This paper proposes a novel framework for detecting $SE(3)$ grasp poses based on point cloud input. Our main contribution is to propose an $SE(3)$-equivariant model that maps each point in the cloud to a continuous grasp quality function over the 2-sphere $S^2$ using a spherical harmonic basis. Compared with reasoning about a finite set of samples, this formulation improves the accuracy and efficiency of our model when a large number of samples would otherwise be needed. In order to accomplish this, we propose a novel variation on EquiFormerV2 that leverages a UNet-style encoder-decoder architecture to enlarge the number of points the model can handle. Our resulting method, which we name $\textit{OrbitGrasp}$, significantly outperforms baselines in both simulation and physical experiments.

arxiv情報

著者 Boce Hu,Xupeng Zhu,Dian Wang,Zihao Dong,Haojie Huang,Chenghao Wang,Robin Walters,Robert Platt
発行日 2024-10-15 02:24:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク