Towards Confidence-guided Shape Completion for Robotic Applications

要約

ロボットによる作業では、作業環境を完全に把握することができれば、何らかの形で3D視覚認識を行うことができます。しかし、ロボットはしばしば構造化されていない環境に取り組まなければならず、搭載された視覚センサーは、限られた作業スペース、乱雑さ、または物体の自己排除のために不完全な情報しか提供できません。近年、部分的な視覚データから完全な3Dオブジェクト表現を推測する効果的な手段として、形状補完のためのディープラーニングアーキテクチャが支持され始めている。それにもかかわらず、既存の最先端のアプローチのほとんどは、ニューラルネットワークの出力ステージのサイズに厳密に関連するボクセルグリッドの形で固定出力解像度を提供します。これは、例えばナビゲーションにおける障害物回避のようないくつかのタスクには十分であるが、把持や操作にはより細かい解像度が必要であり、ニューラルネットワークの出力を単純に拡大することは計算コストがかかる。本論文では、この制限を解決するために、各再構成点に対する信頼値を提供する暗黙の3次元表現に基づく物体形状補完手法を提案する。第二の貢献として、我々はこのような暗黙の関数を任意の分解能で効率的にサンプリングする勾配ベースの方法を提案し、推論時に調整可能であることを示す。また、ロボットの把持パイプラインに我々の形状補完アルゴリズムを導入することで、我々のアプローチを実験的に検証する。どちらの場合も、最先端の形状補完アプローチと結果を比較する。

要約(オリジナル)

Many robotic tasks involving some form of 3D visual perception greatly benefit from a complete knowledge of the working environment. However, robots often have to tackle unstructured environments and their onboard visual sensors can only provide incomplete information due to limited workspaces, clutter or object self-occlusion. In recent years, deep learning architectures for shape completion have begun taking traction as effective means of inferring a complete 3D object representation from partial visual data. Nevertheless, most of the existing state-of-the-art approaches provide a fixed output resolution in the form of voxel grids, strictly related to the size of the neural network output stage. While this is enough for some tasks, e.g. obstacle avoidance in navigation, grasping and manipulation require finer resolutions and simply scaling up the neural network outputs is computationally expensive. In this paper, we address this limitation by proposing an object shape completion method based on an implicit 3D representation providing a confidence value for each reconstructed point. As a second contribution, we propose a gradient-based method for efficiently sampling such implicit function at an arbitrary resolution, tunable at inference time. We experimentally validate our approach by comparing reconstructed shapes with ground truths, and by deploying our shape completion algorithm in a robotic grasping pipeline. In both cases, we compare results with a state-of-the-art shape completion approach.

arxiv情報

著者 Andrea Rosasco,Stefano Berti,Fabrizio Bottarel,Michele Colledanchise,Lorenzo Natale
発行日 2022-09-09 13:48:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク