要約
拡散モデルは、名目上のデータ分布を捕捉し、再構成によって異常を特定することにより、異常検出に貴重な用途を見出しました。
その利点にもかかわらず、さまざまな規模の異常、特にコンポーネント全体が欠落しているような大きな異常の位置を特定するのに苦労しています。
これに対処するために、Meng et al. が以前に導入した暗黙的条件付けアプローチを拡張することにより、拡散モデルの機能を強化する新しいフレームワークを提案します。
(2022) 3 つの重要な点で。
まず、初期の異常予測に基づいたフォワード プロセスでの可変ノイズ ステップを可能にする動的なステップ サイズの計算を組み込みます。
次に、ノイズを追加せずにスケーリングされた入力のみをノイズ除去する方が、従来のノイズ除去プロセスよりも優れていることを示します。
第三に、潜在空間に画像を投影して、欠落している大きなコンポーネントの再構築を妨げる微細なディテールを抽象化します。
さらに、モデルがターゲットドメインのニュアンスを効果的に把握できるようにする微調整メカニズムを提案します。
私たちの手法は、2 つの著名な異常検出データセット VISA と BTAD で厳密な評価を受けており、最先端のパフォーマンスを実現しています。
重要なのは、私たちのフレームワークは、その規模に関係なく効果的に異常の位置を特定し、拡散ベースの異常検出における極めて重要な進歩を示していることです。
要約(オリジナル)
Diffusion models have found valuable applications in anomaly detection by capturing the nominal data distribution and identifying anomalies via reconstruction. Despite their merits, they struggle to localize anomalies of varying scales, especially larger anomalies like entire missing components. Addressing this, we present a novel framework that enhances the capability of diffusion models, by extending the previous introduced implicit conditioning approach Meng et al. (2022) in three significant ways. First, we incorporate a dynamic step size computation that allows for variable noising steps in the forward process guided by an initial anomaly prediction. Second, we demonstrate that denoising an only scaled input, without any added noise, outperforms conventional denoising process. Third, we project images in a latent space to abstract away from fine details that interfere with reconstruction of large missing components. Additionally, we propose a fine-tuning mechanism that facilitates the model to effectively grasp the nuances of the target domain. Our method undergoes rigorous evaluation on two prominent anomaly detection datasets VISA and BTAD, yielding state-of-the-art performance. Importantly, our framework effectively localizes anomalies regardless of their scale, marking a pivotal advancement in diffusion-based anomaly detection.
arxiv情報
著者 | Justin Tebbe,Jawad Tayyub |
発行日 | 2024-01-09 09:57:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google