要約
ノイズコンディショナルフレームワーク(NCF)を使用した既存の条件除去拡散確率モデル(DDPMS)は、シーンの複雑な幾何学的詳細がセマンティックラベルからのデータ分布(スコア)の勾配(スコア)の適合の難しさを高めるため、3Dシーンを理解するために困難なままです。
これにより、非DDPMSと比較してDDPMのトレーニングと推論時間が長くなります。
別の観点から、条件付きネットワークが支配するモデルパラダイムを深く掘り下げます。
このホワイトペーパーでは、Cdsegnetという名前のDDPMSの条件付きノイズフレームワーク(CNF)に基づいて、エンドツーエンドの堅牢なセマンティックセグメンテーションネットワークを提案します。
具体的には、CdSegnetは、ノイズネットワーク(NN)を学習可能なノイズフィーチャージェネレーターとしてモデル化します。
これにより、条件付きネットワーク(CN)は、マルチレベルの特徴の摂動の下で3Dシーンセマンティクスを理解し、目に見えないシーンの一般化を強化することができます。
一方、DDPMSのノイズシステムの恩恵を受けるCdsegnetは、実験で強いノイズとスパース性の堅牢性を示します。
さらに、CNFのおかげで、CdSegnetは、CdSegnetの支配的なネットワークのセマンティックラベルのスコアを直接適合させることを回避するため、非DDPMSのような単一ステップの推論でセマンティックラベルを生成できます。
公共の屋内および屋外のベンチマークでは、cdsegnetは既存の方法を大幅に上回り、最先端のパフォーマンスを実現します。
要約(オリジナル)
Existing conditional Denoising Diffusion Probabilistic Models (DDPMs) with a Noise-Conditional Framework (NCF) remain challenging for 3D scene understanding tasks, as the complex geometric details in scenes increase the difficulty of fitting the gradients of the data distribution (the scores) from semantic labels. This also results in longer training and inference time for DDPMs compared to non-DDPMs. From a different perspective, we delve deeply into the model paradigm dominated by the Conditional Network. In this paper, we propose an end-to-end robust semantic Segmentation Network based on a Conditional-Noise Framework (CNF) of DDPMs, named CDSegNet. Specifically, CDSegNet models the Noise Network (NN) as a learnable noise-feature generator. This enables the Conditional Network (CN) to understand 3D scene semantics under multi-level feature perturbations, enhancing the generalization in unseen scenes. Meanwhile, benefiting from the noise system of DDPMs, CDSegNet exhibits strong noise and sparsity robustness in experiments. Moreover, thanks to CNF, CDSegNet can generate the semantic labels in a single-step inference like non-DDPMs, due to avoiding directly fitting the scores from semantic labels in the dominant network of CDSegNet. On public indoor and outdoor benchmarks, CDSegNet significantly outperforms existing methods, achieving state-of-the-art performance.
arxiv情報
著者 | Wentao Qu,Jing Wang,YongShun Gong,Xiaoshui Huang,Liang Xiao |
発行日 | 2025-04-01 08:48:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google