Score Combining for Contrastive OOD Detection

要約

分布外 (OOD) 検出では、テストサンプルが既知のインライア分布に由来するかどうかを分類することが求められます。
私たちは、インライア分布がトレーニング データセットによって定義されており、遭遇する可能性のある新規性について追加の知識が存在しない場合に焦点を当てます。
この問題は、新規性検出、1 クラス分類、および教師なし異常検出とも呼ばれます。
現在の文献では、対照学習技術が OOD 検出における最先端技術であることが示唆されています。
私たちは、帰無仮説検定、特に新しい一般化尤度比検定 (GLRT) のフレームワークを使用してスコアを結合/アンサンブルすることで、これらの手法を改善することを目指しています。
私たちが提案する GLRT ベースの技術が、Tack らの最先端の CSI および SupCSI 技術よりも優れていることを実証します。
2020 年には、CIFAR-10、SVHN、LSUN、ImageNet、および CIFAR-100 を使用したデータセット対データセットの実験と、CIFAR-10 を使用した 1 クラスアウトの実験が行われました。
また、私たちのアプリケーションでは、GLRT が Fisher、Bonferroni、Simes、Benjamini-Hochwald、および Stouffer のスコア結合方法よりも優れていることも実証します。

要約(オリジナル)

In out-of-distribution (OOD) detection, one is asked to classify whether a test sample comes from a known inlier distribution or not. We focus on the case where the inlier distribution is defined by a training dataset and there exists no additional knowledge about the novelties that one is likely to encounter. This problem is also referred to as novelty detection, one-class classification, and unsupervised anomaly detection. The current literature suggests that contrastive learning techniques are state-of-the-art for OOD detection. We aim to improve on those techniques by combining/ensembling their scores using the framework of null hypothesis testing and, in particular, a novel generalized likelihood ratio test (GLRT). We demonstrate that our proposed GLRT-based technique outperforms the state-of-the-art CSI and SupCSI techniques from Tack et al. 2020 in dataset-vs-dataset experiments with CIFAR-10, SVHN, LSUN, ImageNet, and CIFAR-100, as well as leave-one-class-out experiments with CIFAR-10. We also demonstrate that our GLRT outperforms the score-combining methods of Fisher, Bonferroni, Simes, Benjamini-Hochwald, and Stouffer in our application.

arxiv情報

著者 Edward T. Reehorst,Philip Schniter
発行日 2025-01-21 15:20:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク