Enhancing Grasping Performance of Novel Objects through an Improved Fine-Tuning Process

要約

把握アルゴリズムは、平面的な深さの把握から点群情報の利用へと進化し、より幅広いシナリオでの応用が可能になりました。
ただし、基本的なオープンソース データセットでトレーニングされたモデルに基づくデータ駆動型の把握は、さまざまなシナリオで必要になることが多い新しいオブジェクトに対してはうまく機能しない可能性があり、新しいオブジェクトを使用した微調整が必​​要になります。
これらのアルゴリズムを駆動するデータは基本的に 6D ポーズの手の閉じ領域に対応しており、6D ポーズの一意性により、通常は合成アノテーションまたは実機アノテーション手法が使用されます。
実機のアノテーションを使用して大量のデータを取得するのは困難であるため、合成アノテーションが一般的になっています。
ただし、従来の方法を使用して注釈付き 6D ポーズ データを取得するには、非常に時間がかかります。
したがって、新しいオブジェクトのデータを迅速に取得し、より効率的な微調整を可能にする方法を提案します。
私たちの方法は主に把握の方向をサンプリングして把握を生成し、注釈を付けます。
実験結果は、新しいオブジェクトの微調整プロセスが他の方法より 400 \% 高速であることを示しています。
さらに、グリッパーが閉じる効果を考慮して注釈をより合理的にする、最適化された把握注釈フレームワークを提案します。
この論文が受理され次第、アルゴリズムをオープンソースとしてリリースします。

要約(オリジナル)

Grasping algorithms have evolved from planar depth grasping to utilizing point cloud information, allowing for application in a wider range of scenarios. However, data-driven grasps based on models trained on basic open-source datasets may not perform well on novel objects, which are often required in different scenarios, necessitating fine-tuning using new objects. The data driving these algorithms essentially corresponds to the closing region of the hand in 6D pose, and due to the uniqueness of 6D pose, synthetic annotation or real-machine annotation methods are typically employed. Acquiring large amounts of data with real-machine annotation is challenging, making synthetic annotation a common practice. However, obtaining annotated 6D pose data using conventional methods is extremely time-consuming. Therefore, we propose a method to quickly acquire data for novel objects, enabling more efficient fine-tuning. Our method primarily samples grasp orientations to generate and annotate grasps. Experimental results demonstrate that our fine-tuning process for a new object is 400 \% faster than other methods. Furthermore, we propose an optimized grasp annotation framework that accounts for the effects of the gripper closing, making the annotations more reasonable. Upon acceptance of this paper, we will release our algorithm as open-source.

arxiv情報

著者 Xiao Hu,Xiangsheng Chen
発行日 2023-10-28 02:34:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク