要約
特にテスト時のOODサンプルがトレーニングの外れ値と大きく異なる場合、ディストリビューション(OOD)の検出は深い学習モデルにとって困難なままです。
OODDを提案します。OODDは、微調整せずにOOD辞書を動的に維持および更新する新しいテスト時間OOD検出方法です。
私たちのアプローチは、テスト中に代表的なOOD機能を蓄積する優先キューベースの辞書を活用し、分配中(ID)サンプルのための有益なインライラサンプリング戦略と組み合わせています。
早期のテスト中に安定したパフォーマンスを確保するために、IDデータから派生した戦略的に生成された外れ値を活用するデュアルOOD安定化メカニズムを提案します。
私たちの最高の知識のために、Openoodベンチマークでの広範な実験は、OODDが既存の方法を大幅に上回り、最先端のアプローチと比較してCIFAR-100 FAR OOD検出でFPR95の26.0%の改善を達成することを示しています。
さらに、検出パフォーマンスを維持しながら3倍のスピードアップを達成するKNNベースのOOD検出フレームワークの最適化されたバリアントを提示します。
要約(オリジナル)
Out-of-distribution (OOD) detection remains challenging for deep learning models, particularly when test-time OOD samples differ significantly from training outliers. We propose OODD, a novel test-time OOD detection method that dynamically maintains and updates an OOD dictionary without fine-tuning. Our approach leverages a priority queue-based dictionary that accumulates representative OOD features during testing, combined with an informative inlier sampling strategy for in-distribution (ID) samples. To ensure stable performance during early testing, we propose a dual OOD stabilization mechanism that leverages strategically generated outliers derived from ID data. To our best knowledge, extensive experiments on the OpenOOD benchmark demonstrate that OODD significantly outperforms existing methods, achieving a 26.0% improvement in FPR95 on CIFAR-100 Far OOD detection compared to the state-of-the-art approach. Furthermore, we present an optimized variant of the KNN-based OOD detection framework that achieves a 3x speedup while maintaining detection performance.
arxiv情報
著者 | Yifeng Yang,Lin Zhu,Zewen Sun,Hengyu Liu,Qinying Gu,Nanyang Ye |
発行日 | 2025-03-13 15:41:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google