Learning by Erasing: Conditional Entropy based Transferable Out-Of-Distribution Detection

要約

トレーニング シナリオとテスト シナリオの間の配布の変化に対処するには、配布外 (OOD) の検出が不可欠です。
新しい分布内 (ID) データセットの場合、既存のメソッドでは、データセット固有の特徴表現またはデータ分布をキャプチャするために再トレーニングが必要です。
この論文では、新しい ID データセットで再トレーニングする必要のない、深層生成モデル (DGM) ベースの転送可能な OOD 検出方法を提案します。
各 ID データセットに排他的な条件付きエントロピー分布を装備する画像消去戦略を設計します。これにより、異なる ID データセットに対する DGM の事後確実性分布の不一致が決まります。
畳み込みニューラル ネットワークの強力な表現能力のおかげで、複雑なデータセットでトレーニングされた提案されたモデルは、再トレーニングすることなく ID データセット間の上記の不一致を捕捉でき、転送可能な OOD 検出を実現します。
提案された方法を 5 つのデータセットで検証し、新しい ID データセットに展開するには再トレーニングが必要な最先端のグループベースの OOD 検出方法と同等のパフォーマンスを達成することを確認します。
私たちのコードは https://github.com/oOHCIOo/CETOOD で入手できます。

要約(オリジナル)

Out-of-distribution (OOD) detection is essential to handle the distribution shifts between training and test scenarios. For a new in-distribution (ID) dataset, existing methods require retraining to capture the dataset-specific feature representation or data distribution. In this paper, we propose a deep generative models (DGM) based transferable OOD detection method, which is unnecessary to retrain on a new ID dataset. We design an image erasing strategy to equip exclusive conditional entropy distribution for each ID dataset, which determines the discrepancy of DGM’s posteriori ucertainty distribution on different ID datasets. Owing to the powerful representation capacity of convolutional neural networks, the proposed model trained on complex dataset can capture the above discrepancy between ID datasets without retraining and thus achieve transferable OOD detection. We validate the proposed method on five datasets and verity that ours achieves comparable performance to the state-of-the-art group based OOD detection methods that need to be retrained to deploy on new ID datasets. Our code is available at https://github.com/oOHCIOo/CETOOD.

arxiv情報

著者 Meng Xing,Zhiyong Feng,Yong Su,Changjae Oh
発行日 2024-03-27 14:29:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク