要約
特に安全性の高いアプリケーションで、ディストリビューション(OOD)検出は、深い学習システムの信頼性を確保するために重要です。
尤度ベースのディープ生成モデルは、OOD検出における不十分なパフォーマンスに対する歴史的に批判に直面しており、多くの場合、画像データに適用した場合、分散型の分布サンプルよりも多くの可能性をoodデータに割り当てます。
この作業では、可能性が本質的に欠陥がないことを示します。
むしろ、画像空間のいくつかのプロパティは、有効な検出スコアとしての尤度を禁止しています。
拡散モデルの確率フロー定式化を具体的に使用して、十分に良好な尤度推定器を考えると、事前に訓練されたエンコーダの表現スペースに適用された場合、尤度ベースの方法が最先端の方法と同等に実行できることを示します。
私たちの作品のコードは、$ \ href {https://github.com/limchaos/likelihood-ood.git} {\ texttt {https://github.com/limchaos/likelihood-ood.git}}}で見つけることができます。
要約(オリジナル)
Out-of-distribution (OOD) detection is critical for ensuring the reliability of deep learning systems, particularly in safety-critical applications. Likelihood-based deep generative models have historically faced criticism for their unsatisfactory performance in OOD detection, often assigning higher likelihood to OOD data than in-distribution samples when applied to image data. In this work, we demonstrate that likelihood is not inherently flawed. Rather, several properties in the images space prohibit likelihood as a valid detection score. Given a sufficiently good likelihood estimator, specifically using the probability flow formulation of a diffusion model, we show that likelihood-based methods can still perform on par with state-of-the-art methods when applied in the representation space of pre-trained encoders. The code of our work can be found at $\href{https://github.com/limchaos/Likelihood-OOD.git}{\texttt{https://github.com/limchaos/Likelihood-OOD.git}}$.
arxiv情報
著者 | Yifan Ding,Arturas Aleksandrauskas,Amirhossein Ahmadian,Jonas Unger,Fredrik Lindsten,Gabriel Eilertsen |
発行日 | 2025-04-10 14:30:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google