要約
屋内 3D オブジェクトの検出は、単一画像のシーンを理解する上で不可欠なタスクであり、視覚推論における空間認知に根本的に影響を与えます。
単一の画像からの 3D オブジェクト検出に関する既存の研究は、各オブジェクトの独立した予測を通じてこの目標を追求するか、すべての可能なオブジェクトを暗黙的に推論するかのいずれかで、オブジェクト間の関係幾何学的情報を利用できません。
この問題に対処するために、オブジェクト ジオメトリとセマンティクス機能に基づいた Explicit3D という名前の動的スパース グラフ パイプラインを提案します。
効率を考慮して、関連性スコアをさらに定義し、スパースシーングラフの生成と更新のためのクラスターサンプリング方法に続く新しい動的枝刈りアルゴリズムを設計します。
さらに、Explicit3D は均一行列を導入し、新しい相対損失とコーナー損失を定義して、ターゲット ペア間の空間差を明示的にモデル化します。
直接の監視としてグラウンド トゥルース ラベルを使用する代わりに、相対損失とコーナー損失は、モデルをレンダリングしてオブジェクト間の幾何学的一貫性を学習する同次変換から導出されます。
SUN RGB-D データセットの実験結果は、Explicit3D が最先端のものよりも優れたパフォーマンス バランスを達成していることを示しています。
要約(オリジナル)
Indoor 3D object detection is an essential task in single image scene understanding, impacting spatial cognition fundamentally in visual reasoning. Existing works on 3D object detection from a single image either pursue this goal through independent predictions of each object or implicitly reason over all possible objects, failing to harness relational geometric information between objects. To address this problem, we propose a dynamic sparse graph pipeline named Explicit3D based on object geometry and semantics features. Taking the efficiency into consideration, we further define a relatedness score and design a novel dynamic pruning algorithm followed by a cluster sampling method for sparse scene graph generation and updating. Furthermore, our Explicit3D introduces homogeneous matrices and defines new relative loss and corner loss to model the spatial difference between target pairs explicitly. Instead of using ground-truth labels as direct supervision, our relative and corner loss are derived from the homogeneous transformation, which renders the model to learn the geometric consistency between objects. The experimental results on the SUN RGB-D dataset demonstrate that our Explicit3D achieves better performance balance than the-state-of-the-art.
arxiv情報
著者 | Yanjun Liu,Wenming Yang |
発行日 | 2023-11-20 08:44:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google