A framework for benchmarking class-out-of-distribution detection and its application to ImageNet

要約

リスクに敏感なタスクに展開する場合、ディープ ニューラル ネットワークは、トレーニング対象の分布外からのラベルを持つインスタンスを検出できなければなりません。
このホワイト ペーパーでは、さまざまなレベルの検出難易度で、画像分類器が分布外のクラス インスタンス (つまり、真のラベルがトレーニング分布に現れないインスタンス) を検出する能力をベンチマークする新しいフレームワークを提示します。
この手法を ImageNet に適用し、525 個の事前トレーニング済みで公開されている ImageNet-1k 分類器のベンチマークを行います。
ImageNet-1k 分類子のベンチマークを生成するためのコードと、上記の 525 モデル用に用意されたベンチマークは、https://github.com/mdabbah/COOD_benchmarking で入手できます。
提案されたフレームワークの有用性と、代替の既存のベンチマークに対するその利点は、これらのモデルで得られた結果を分析することによって実証され、次のような多数の新しい観察結果が明らかになります。
検出性能;
(2) ViT のサブセットは、他のどのモデルよりも優れた C-OOD 検出を実行します。
(3) language–vision CLIP モデルは、評価された他のすべてのモデルの 96% を上回る最高のインスタンスで、良好なゼロ ショット検出パフォーマンスを達成します。
(4) 精度と分布内ランキングは、C-OOD 検出と正の相関があります。
(5) C-OOD 検出のさまざまな信頼関数を比較します。
ICLR 2023 (523 Imagenet Classifiers の Selective Prediction And Uncertainty Estimation Performance から何を学ぶことができるか) にも掲載されている私たちの関連論文では、これらの分類器の不確実性推定パフォーマンス (ランキング、キャリブレーション、および選択的予測パフォーマンス) を調査しています。
配信設定。

要約(オリジナル)

When deployed for risk-sensitive tasks, deep neural networks must be able to detect instances with labels from outside the distribution for which they were trained. In this paper we present a novel framework to benchmark the ability of image classifiers to detect class-out-of-distribution instances (i.e., instances whose true labels do not appear in the training distribution) at various levels of detection difficulty. We apply this technique to ImageNet, and benchmark 525 pretrained, publicly available, ImageNet-1k classifiers. The code for generating a benchmark for any ImageNet-1k classifier, along with the benchmarks prepared for the above-mentioned 525 models is available at https://github.com/mdabbah/COOD_benchmarking. The usefulness of the proposed framework and its advantage over alternative existing benchmarks is demonstrated by analyzing the results obtained for these models, which reveals numerous novel observations including: (1) knowledge distillation consistently improves class-out-of-distribution (C-OOD) detection performance; (2) a subset of ViTs performs better C-OOD detection than any other model; (3) the language–vision CLIP model achieves good zero-shot detection performance, with its best instance outperforming 96% of all other models evaluated; (4) accuracy and in-distribution ranking are positively correlated to C-OOD detection; and (5) we compare various confidence functions for C-OOD detection. Our companion paper, also published in ICLR 2023 (What Can We Learn From The Selective Prediction And Uncertainty Estimation Performance Of 523 Imagenet Classifiers), examines the uncertainty estimation performance (ranking, calibration, and selective prediction performance) of these classifiers in an in-distribution setting.

arxiv情報

著者 Ido Galil,Mohammed Dabbah,Ran El-Yaniv
発行日 2023-02-23 09:57:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク