OOD Augmentation May Be at Odds with Open-Set Recognition

要約

画像分類法の進歩にもかかわらず、学習クラスに属さないサンプルを検出することは、依然として困難な問題である。最近、この課題に対する関心が高まっており、オープンセット認識(Open-Set Recognition:OSR)と呼ばれている。OSRでは、分類と分布外(OOD)サンプルの検出の両方を達成することが目標である。これまでにも、複雑な手法によって経験則をさらに押し進めるアイデアがいくつか提案されています。我々は、そのような複雑な手法は実際には必要ないと考えている。そこで、我々は、OSRの最も単純なベースラインである最大ソフトマックス確率(MSP)を、Vision Transformers(ViTs)を基本分類器として適用し、非OOD拡張を用いて学習することで、最近の多くの手法を驚くほど凌駕することができることを明らかにした。非OOD拡張とは、データ分布をあまり変化させない拡張のことである。我々の結果は、CIFAR-10データセットにおいて最先端技術を凌駕し、SVHNとMNISTにおいても最新の手法のほとんどを凌駕するものである。我々は、OSRタスクにおけるViTの性能に学習拡張が大きく影響することを示し、拡張されたサンプルに大きな多様性を生み出す必要がある一方で、生成されるサンプルのOOD性は制限されたままでなければならないことを示す。

要約(オリジナル)

Despite advances in image classification methods, detecting the samples not belonging to the training classes is still a challenging problem. There has been a burst of interest in this subject recently, which is called Open-Set Recognition (OSR). In OSR, the goal is to achieve both the classification and detecting out-of-distribution (OOD) samples. Several ideas have been proposed to push the empirical result further through complicated techniques. We believe that such complication is indeed not necessary. To this end, we have shown that Maximum Softmax Probability (MSP), as the simplest baseline for OSR, applied on Vision Transformers (ViTs) as the base classifier that is trained with non-OOD augmentations can surprisingly outperform many recent methods. Non-OOD augmentations are the ones that do not alter the data distribution by much. Our results outperform state-of-the-art in CIFAR-10 datasets, and is also better than most of the current methods in SVHN and MNIST. We show that training augmentation has a significant effect on the performance of ViTs in the OSR tasks, and while they should produce significant diversity in the augmented samples, the generated sample OOD-ness must remain limited.

arxiv情報

著者 Mohammad Azizmalayeri,Mohammad Hossein Rohban
発行日 2022-06-09 03:01:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク