Three-Filters-to-Normal+: Revisiting Discontinuity Discrimination in Depth-to-Normal Translation

要約

この記事では、以前の研究である Three-filters-to-normal (3F2N) の拡張機能である Three-filters-to-normal+ (3F2N+) を紹介します。特に、不連続性識別機能を表面法線推定器 (SNE) に組み込むことに重点を置いています。
3F2N+ は、条件付きランダム フィールド (CRF) による深度曲率の最小化と相関係数の最大化を組み合わせた、新しい不連続性識別モジュール (DDM) を利用することでこの機能を実現します。
ノイズの多いデータに対する SNE の堅牢性を評価するために、20 のシナリオ (深度画像にランダム ガウス ノイズを追加した場合と追加しない場合の 10 の屋内シナリオと 10 の屋外シナリオ) を含む大規模な合成表面法線 (SSN) データセットを作成します。
広範な実験により、3F2N+ は他のすべてのジオメトリベースの表面法線推定器よりも優れたパフォーマンスを達成し、平均角度誤差は 7.85$^\circ$、8.95$^\circ$、9.25$^\circ$、11.98$^\circ であることが実証されました。
$ は、それぞれ、クリーンな屋内、クリーンな屋外、騒々しい屋内、および騒々しい屋外のデータセットに適用されます。
私たちは、自由空間の検出、6D オブジェクトの姿勢推定、点群の完成など、下流のロボット認識タスクに私たちが提案する 3F2N+ を組み込むことの有効性を実証するために、さらに 3 つの実験を実施します。
私たちのソース コードとデータセットは https://mias.group/3F2Nplus で公開されています。

要約(オリジナル)

This article introduces three-filters-to-normal+ (3F2N+), an extension of our previous work three-filters-to-normal (3F2N), with a specific focus on incorporating discontinuity discrimination capability into surface normal estimators (SNEs). 3F2N+ achieves this capability by utilizing a novel discontinuity discrimination module (DDM), which combines depth curvature minimization and correlation coefficient maximization through conditional random fields (CRFs). To evaluate the robustness of SNEs on noisy data, we create a large-scale synthetic surface normal (SSN) dataset containing 20 scenarios (ten indoor scenarios and ten outdoor scenarios with and without random Gaussian noise added to depth images). Extensive experiments demonstrate that 3F2N+ achieves greater performance than all other geometry-based surface normal estimators, with average angular errors of 7.85$^\circ$, 8.95$^\circ$, 9.25$^\circ$, and 11.98$^\circ$ on the clean-indoor, clean-outdoor, noisy-indoor, and noisy-outdoor datasets, respectively. We conduct three additional experiments to demonstrate the effectiveness of incorporating our proposed 3F2N+ into downstream robot perception tasks, including freespace detection, 6D object pose estimation, and point cloud completion. Our source code and datasets are publicly available at https://mias.group/3F2Nplus.

arxiv情報

著者 Jingwei Yang,Bohuan Xue,Yi Feng,Deming Wang,Rui Fan,Qijun Chen
発行日 2023-12-13 08:18:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク