Grasping the Inconspicuous

要約

透明なオブジェクトは日常生活で一般的であるため、ロボットの把持を必要とする多くの用途があります。
不透明なオブジェクトに対して、オブジェクトの把握に向けた多くのソリューションが存在します。
ただし、透明な物体には独特の視覚的特性があるため、標準の 3D センサーではノイズや歪んだ測定値が生成されます。
最新のアプローチでは、ノイズの多い深度測定値を改良するか、深度の中間表現を使用することで、この問題に取り組んでいます。
これに向けて、透明なオブジェクトの把握のみを目的として、RGB 画像からの深層学習 6D 姿勢推定を研究します。
RGB ベースの物体姿勢推定の適合性をトレーニングおよびテストするために、6D 姿勢注釈を使用して RGB のみの画像のデータセットを構築します。
実験は、透明なオブジェクトを把握するための RGB イメージ空間の有効性を示しています。

要約(オリジナル)

Transparent objects are common in day-to-day life and hence find many applications that require robot grasping. Many solutions toward object grasping exist for non-transparent objects. However, due to the unique visual properties of transparent objects, standard 3D sensors produce noisy or distorted measurements. Modern approaches tackle this problem by either refining the noisy depth measurements or using some intermediate representation of the depth. Towards this, we study deep learning 6D pose estimation from RGB images only for transparent object grasping. To train and test the suitability of RGB-based object pose estimation, we construct a dataset of RGB-only images with 6D pose annotations. The experiments demonstrate the effectiveness of RGB image space for grasping transparent objects.

arxiv情報

著者 Hrishikesh Gupta,Stefan Thalhammer,Markus Leitner,Markus Vincze
発行日 2022-11-15 14:45:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク