要約
ディープニューラルネットワーク(DNN)は、分布外(OOD)サンプルに遭遇すると過信を示すことが多く、配備に大きな課題をもたらす。DNNは分布内(ID)データセットで学習されるため、DNNを通るIDサンプルの情報の流れは必然的にOODサンプルのそれとは異なる。本論文では、エントロピーベースの分布外検出(EOOD)フレームワークを提案する。EOODはまず、IDサンプルと擬似OODサンプルの両方を用いて、IDサンプルとOODサンプルの情報フローの違いが顕著な特定のブロックを特定する。そして、選択されたブロックの条件付きエントロピーをOOD信頼度スコアとして計算する。様々なIDおよびOOD設定において行われた包括的な実験により、OOD検出におけるEOODの有効性と、最先端の手法に対する優位性が実証された。
要約(オリジナル)
Deep neural networks (DNNs) often exhibit overconfidence when encountering out-of-distribution (OOD) samples, posing significant challenges for deployment. Since DNNs are trained on in-distribution (ID) datasets, the information flow of ID samples through DNNs inevitably differs from that of OOD samples. In this paper, we propose an Entropy-based Out-Of-distribution Detection (EOOD) framework. EOOD first identifies specific block where the information flow differences between ID and OOD samples are more pronounced, using both ID and pseudo-OOD samples. It then calculates the conditional entropy on the selected block as the OOD confidence score. Comprehensive experiments conducted across various ID and OOD settings demonstrate the effectiveness of EOOD in OOD detection and its superiority over state-of-the-art methods.
arxiv情報
著者 | Guide Yang,Chao Hou,Weilong Peng,Xiang Fang,Yongwei Nie,Peican Zhu,Keke Tang |
発行日 | 2025-04-04 10:57:03+00:00 |
arxivサイト | arxiv_id(pdf) |