Exploring Diverse Representations for Open Set Recognition

要約

開集合認識 (OSR) では、テスト中に未知のサンプルを拒否しながら、閉集合に属するサンプルを分類するモデルが必要です。
現在、OSR では生成モデルが判別モデルよりも優れたパフォーマンスを発揮することがよくありますが、最近の研究では、複雑なタスクでは生成モデルが計算的に実行不可能であるか不安定である可能性があることが示されています。
この論文では、OSR についての洞察を提供し、補足表現を学習することでオープン スペースのリスクを理論的に軽減できることを発見しました。
分析に基づいて、我々は、識別的な方法で多様な表現を学習する新しいモデル、すなわちMulti-Expert Diverse Attendant Fusion (MEDAF)を提案します。
MEDAF は、アテンション マップが相互に異なることを保証するために、アテンション ダイバーシティ正則化項で学習された複数のエキスパートで構成されます。
各エキスパートが学習したロジットは適応的に融合され、スコア関数を通じて未知の部分を特定するために使用されます。
私たちは、アテンション マップの違いが多様な表現につながり、融合された表現がオープン スペースを適切に処理できることを示します。
標準および OSR の大規模ベンチマークで広範な実験が行われています。
結果は、提案された識別方法が AUROC 上で既存の生成モデルを最大 9.5% 上回るパフォーマンスを示し、わずかな計算コストで新しい最先端のパフォーマンスを達成できることを示しています。
私たちの方法では、既存の分類モデルをシームレスに統合することもできます。
コードは https://github.com/Vanixxz/MEDAF で入手できます。

要約(オリジナル)

Open set recognition (OSR) requires the model to classify samples that belong to closed sets while rejecting unknown samples during test. Currently, generative models often perform better than discriminative models in OSR, but recent studies show that generative models may be computationally infeasible or unstable on complex tasks. In this paper, we provide insights into OSR and find that learning supplementary representations can theoretically reduce the open space risk. Based on the analysis, we propose a new model, namely Multi-Expert Diverse Attention Fusion (MEDAF), that learns diverse representations in a discriminative way. MEDAF consists of multiple experts that are learned with an attention diversity regularization term to ensure the attention maps are mutually different. The logits learned by each expert are adaptively fused and used to identify the unknowns through the score function. We show that the differences in attention maps can lead to diverse representations so that the fused representations can well handle the open space. Extensive experiments are conducted on standard and OSR large-scale benchmarks. Results show that the proposed discriminative method can outperform existing generative models by up to 9.5% on AUROC and achieve new state-of-the-art performance with little computational cost. Our method can also seamlessly integrate existing classification models. Code is available at https://github.com/Vanixxz/MEDAF.

arxiv情報

著者 Yu Wang,Junxian Mu,Pengfei Zhu,Qinghua Hu
発行日 2024-01-12 11:40:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク