要約
シーンとオブジェクトの再構築は、特に衝突のない軌跡を計画したり、オブジェクト操作において、ロボット工学の重要な問題です。
このペーパーでは、単一のRGB-Dカメラビューからオブジェクト表面の非視界部分の再構築に関する2つの戦略を比較します。
DeepSDFという名前の最初の方法は、3D空間の特定のポイントのオブジェクト表面への署名された距離変換を予測します。
Mirrornetという名前の2番目の方法は、観測されたオブジェクトの反対側から画像を生成することにより、閉塞されたオブジェクトの部分を再構築します。
Shapenetデータセットのオブジェクトで実行された実験は、ビュー依存のMirrornetがより速く、ほとんどのカテゴリで再構成エラーが小さいことを示しています。
要約(オリジナル)
Scene and object reconstruction is an important problem in robotics, in particular in planning collision-free trajectories or in object manipulation. This paper compares two strategies for the reconstruction of nonvisible parts of the object surface from a single RGB-D camera view. The first method, named DeepSDF predicts the Signed Distance Transform to the object surface for a given point in 3D space. The second method, named MirrorNet reconstructs the occluded objects’ parts by generating images from the other side of the observed object. Experiments performed with objects from the ShapeNet dataset, show that the view-dependent MirrorNet is faster and has smaller reconstruction errors in most categories.
arxiv情報
著者 | Rafał Staszak,Piotr Michałek,Jakub Chudziński,Marek Kopicki,Dominik Belter |
発行日 | 2025-01-27 14:50:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google