要約
オープンセット認識(OSR)問題は、トレーニングクラスの一部ではない新しいセマンティッククラスからテストサンプルを特定することを目的としています。これは、多くの実際のシナリオで重要なタスクです。
ただし、既存のOSRメソッドは、損失関数を適用する前にロジットに一定のスケーリング係数(温度)を使用します。これは、インスタンスレベルからセマンティックレベルの機能まで、表現学習のスペクトルの両端を探索することからモデルを妨げます。
このホワイトペーパーでは、新しいネガティブコサインスケジューリングスキームを使用して温度調整表現学習を可能にすることにより、この問題に対処します。
スケジューリングにより、モデルは、より少ない隣人に焦点を当てることにより、トレーニングの開始時に粗い決定境界を形成し、徐々により多くの隣人を優先して、粗いエッジを滑らかにします。
この段階的なタスクの切り替えは、より豊かで一般化可能な表現スペースにつながります。
他のOSRメソッドは、混乱などの正規化または補助ネガティブサンプルを含めることで利益を得て、それにより重要な計算オーバーヘッドを追加しますが、スキームはオーバーヘッドのない既存のOSRメソッドに折りたたむことができます。
多数のベースラインの上に提案されたスキームを実装して、クロスエントロピーと対照的な損失関数の両方、および他のいくつかのOSRメソッドの両方を使用して、ほとんどの場合、特に厳しいセマンティックシフトベンチマークでOSRパフォーマンスとクローズドセットパフォーマンスの両方を高めることがわかります。
要約(オリジナル)
The open set recognition (OSR) problem aims to identify test samples from novel semantic classes that are not part of the training classes, a task that is crucial in many practical scenarios. However, existing OSR methods use a constant scaling factor (the temperature) to the logits before applying a loss function, which hinders the model from exploring both ends of the spectrum in representation learning — from instance-level to semantic-level features. In this paper, we address this problem by enabling temperature-modulated representation learning using our novel negative cosine scheduling scheme. Our scheduling lets the model form a coarse decision boundary at the beginning of training by focusing on fewer neighbors, and gradually prioritizes more neighbors to smooth out rough edges. This gradual task switching leads to a richer and more generalizable representation space. While other OSR methods benefit by including regularization or auxiliary negative samples, such as with mix-up, thereby adding a significant computational overhead, our scheme can be folded into any existing OSR method with no overhead. We implement the proposed scheme on top of a number of baselines, using both cross-entropy and contrastive loss functions as well as a few other OSR methods, and find that our scheme boosts both the OSR performance and the closed set performance in most cases, especially on the tougher semantic shift benchmarks.
arxiv情報
| 著者 | Amit Kumar Kundu,Vaishnavi Patil,Joseph Jaja |
| 発行日 | 2025-05-23 17:47:20+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google