要約
深層学習モデルは、トレーニング中のデータ分布がテスト データと一致している場合に優れています。
しかし、配布外 (OOD) サンプルに直面するとパフォーマンスが低下するため、OOD 検出の分野に大きな関心が集まっています。
現在のアプローチは通常、OOD サンプルがトレーニング分布を補う非集中分布に由来すると想定しています。
この仮定は、従来の教師なし OOD (U-OOD) 設定では適切ですが、基礎となる深層学習モデルの展開場所を考慮すると不適切であることがわかります。
この現実世界のシナリオをより適切に反映するために、継続的な U-OOD 検出という新しい設定を導入します。
この新しい設定に取り組むために、OOD 分布に依存しない U-OOD 検出器から開始し、実際の OOD 分布を考慮して展開中にゆっくりと更新する方法を提案します。
私たちの方法では、マハラノビス距離と最近傍アプローチを組み合わせた新しい U-OOD スコアリング関数を使用します。
さらに、以前の方法よりも優れた信頼性スケールの少数ショット OOD 検出器を設計します。
私たちの手法が関連分野からの強力なベースラインに基づいて大幅に改善されたことを示します。
要約(オリジナル)
Deep learning models excel when the data distribution during training aligns with testing data. Yet, their performance diminishes when faced with out-of-distribution (OOD) samples, leading to great interest in the field of OOD detection. Current approaches typically assume that OOD samples originate from an unconcentrated distribution complementary to the training distribution. While this assumption is appropriate in the traditional unsupervised OOD (U-OOD) setting, it proves inadequate when considering the place of deployment of the underlying deep learning model. To better reflect this real-world scenario, we introduce the novel setting of continual U-OOD detection. To tackle this new setting, we propose a method that starts from a U-OOD detector, which is agnostic to the OOD distribution, and slowly updates during deployment to account for the actual OOD distribution. Our method uses a new U-OOD scoring function that combines the Mahalanobis distance with a nearest-neighbor approach. Furthermore, we design a confidence-scaled few-shot OOD detector that outperforms previous methods. We show our method greatly improves upon strong baselines from related fields.
arxiv情報
著者 | Lars Doorenbos,Raphael Sznitman,Pablo Márquez-Neila |
発行日 | 2024-06-04 13:57:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google