要約
外部分布(OOD)検出は、重要なアプリケーションでの深い学習モデルの安全な展開を確保するために重要です。
ディープラーニングモデルは、多くの場合、oodサンプルを分散貢献(ID)サンプルとして誤認する可能性があります。
この脆弱性は、トレーニングセットに偽の相関がある場合に悪化します。
同様に、細粒の分類設定では、IDサンプルとの類似性が高いため、細粒サンプルの検出が本質的に困難になります。
ただし、OOD検出に関する現在の研究は、これらの挑戦的なシナリオをほとんど無視しており、代わりに比較的簡単な(従来の)ケースに焦点を当てています。
この作業では、偽り、きめの細かい、従来のOOD検出(ASCOOD)に対する統一されたアプローチを提示します。
まず、不変の特徴の破壊を近似することにより、IDデータから仮想外れ値を合成することを提案します。
この目的のために、学習中のモデルを使用して、ピクセル属性法で不変の機能を特定します。
このアプローチは、外部OODデータセットをキュレーションする負担を排除します。
次に、標準化された機能表現を活用する仮想外れ値に対するID分類と予測不確実性を同時に奨励します。
私たちのアプローチは、偽の相関の影響を効果的に軽減し、きめ細かい属性のキャプチャを促進します。
7つのデータセットにわたる広範な実験は、偽り、きめの細かい設定、および従来の設定におけるアスクードのメリットを示しています。
コードはhttps://github.com/sudarshanregmi/ascood/で入手できます。
要約(オリジナル)
Out-of-distribution (OOD) detection is critical to ensure the safe deployment of deep learning models in critical applications. Deep learning models can often misidentify OOD samples as in-distribution (ID) samples. This vulnerability worsens in the presence of spurious correlation in the training set. Likewise, in fine-grained classification settings, detection of fine-grained OOD samples becomes inherently challenging due to their high similarity to ID samples. However, current research on OOD detection has largely ignored these challenging scenarios, focusing instead on relatively easier (conventional) cases. In this work, we present a unified Approach to Spurious, fine-grained, and Conventional OOD Detection (ASCOOD). First, we propose synthesizing virtual outliers from ID data by approximating the destruction of invariant features. To this end, we identify invariant features with the pixel attribution method using the model being learned. This approach eliminates the burden of curating external OOD datasets. Then, we simultaneously incentivize ID classification and predictive uncertainty towards virtual outliers leveraging standardized feature representation. Our approach effectively mitigates the impact of spurious correlations and encourages capturing fine-grained attributes. Extensive experiments across seven datasets demonstrate the merit of ASCOOD in spurious, fine-grained, and conventional settings. The code is available at: https://github.com/sudarshanregmi/ASCOOD/
arxiv情報
著者 | Sudarshan Regmi |
発行日 | 2025-03-11 17:21:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google