One-for-More: Continual Diffusion Model for Anomaly Detection

要約

生成モデルの台頭により、生成フレームワーク内のすべてのタスクを統合することに関心が高まっています。
異常検出方法もこの範囲に分類され、拡散モデルを利用して、任意の異常画像が与えられたときに通常のサンプルを生成または再構築します。
しかし、我々の研究では、拡散モデルは、予測不可能なパターンの増分を満たすことができない「忠実な幻覚」と「壊滅的な忘却」に苦しんでいることがわかりました。
上記の問題を軽減するために、勾配投影を使用して安定した継続的な学習を実現する継続的な拡散モデルを提案します。
勾配投影は、学習した知識を保護する方向に向かって勾配を変更することにより、モデルの更新の正則化を展開します。
しかし、両刃の剣として、マルコフプロセスによってもたらされる膨大な記憶コストも必要です。
したがって、小さなメモリを消費し、パフォーマンスの損失がほとんどない線形表現の推移的な特性に基づいて、反復的な単数の値分解法を提案します。
最後に、拡散モデルの通常の画像に対する「過度にフィット」のリスクを考慮すると、拡散モデルの条件メカニズムを強化するための異常マスクネットワークを提案します。
継続的な異常検出のために、私たちはMVTECとビザで17/18の設定で1位を達成します。
コードはhttps://github.com/funz-0/one-for-moreで入手できます

要約(オリジナル)

With the rise of generative models, there is a growing interest in unifying all tasks within a generative framework. Anomaly detection methods also fall into this scope and utilize diffusion models to generate or reconstruct normal samples when given arbitrary anomaly images. However, our study found that the diffusion model suffers from severe “faithfulness hallucination” and “catastrophic forgetting”, which can’t meet the unpredictable pattern increments. To mitigate the above problems, we propose a continual diffusion model that uses gradient projection to achieve stable continual learning. Gradient projection deploys a regularization on the model updating by modifying the gradient towards the direction protecting the learned knowledge. But as a double-edged sword, it also requires huge memory costs brought by the Markov process. Hence, we propose an iterative singular value decomposition method based on the transitive property of linear representation, which consumes tiny memory and incurs almost no performance loss. Finally, considering the risk of “over-fitting” to normal images of the diffusion model, we propose an anomaly-masked network to enhance the condition mechanism of the diffusion model. For continual anomaly detection, ours achieves first place in 17/18 settings on MVTec and VisA. Code is available at https://github.com/FuNz-0/One-for-More

arxiv情報

著者 Xiaofan Li,Xin Tan,Zhuo Chen,Zhizhong Zhang,Ruixin Zhang,Rizen Guo,Guanna Jiang,Yulong Chen,Yanyun Qu,Lizhuang Ma,Yuan Xie
発行日 2025-03-18 17:32:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク