要約
分布外(OOD)サンプルの検出と理解は、信頼できるモデル性能を保証するために、機械学習(ML)において極めて重要である。現在のOOD研究は、一般的に、特にMLの文脈では、主に外挿OOD(外側)に焦点を当てており、内挿OOD(内側)の潜在的なケースを無視している。本研究では、OODが内側にある場合と外側にある場合に分けられることを示唆し、OODに関する新しい視点を導入する。さらに、このフレームワークに従って、データセットの内側と外側のOODプロファイルと、それらがMLモデルの性能に与える影響を調べる。我々の分析は、異なる内部-外部OODプロファイルがMLモデル性能の微妙な低下をもたらすことを示し、効果的なOOD対策手法を開発するためにこれら2つのケースを区別することの重要性を強調する。
要約(オリジナル)
Detecting and understanding out-of-distribution (OOD) samples is crucial in machine learning (ML) to ensure reliable model performance. Current OOD studies, in general, and in the context of ML, in particular, primarily focus on extrapolatory OOD (outside), neglecting potential cases of interpolatory OOD (inside). This study introduces a novel perspective on OOD by suggesting OOD can be divided into inside and outside cases. In addition, following this framework, we examine the inside-outside OOD profiles of datasets and their impact on ML model performance. Our analysis shows that different inside-outside OOD profiles lead to nuanced declines in ML model performance, highlighting the importance of distinguishing between these two cases for developing effective counter-OOD methods.
arxiv情報
著者 | Teddy Lazebnik |
発行日 | 2024-07-05 14:22:13+00:00 |
arxivサイト | arxiv_id(pdf) |