Open Domain Generalization with a Single Network by Regularization Exploiting Pre-trained Features

要約

オープン ドメイン一般化 (ODG) は、分布の変化だけでなく、ソース データセットとターゲット データセット間のカテゴリの変化も扱うため、困難なタスクです。
このタスクを処理するには、モデルは、トレーニング中に存在しなかった未知のクラスを識別しながら、目に見えないドメインに適用できる一般化可能な表現を学習する必要があります。
これまでの研究では、複数のソース固有ネットワークを使用していましたが、これには高い計算コストがかかりました。
そこで本論文では、単一ネットワークのみでODGを扱える方式を提案する。
提案された方法は、線形プローブによって事前にトレーニングされたヘッドを利用し、それぞれ特徴抽出器と分類ヘッドの正則化をターゲットとする 2 つの正則化項を使用します。
2 つの正則化項は事前トレーニングされた特徴を最大限に活用し、特徴抽出器を過度に変更することなく連携してモデルの頭部を変更します。
これにより、ソフトマックス出力がよりスムーズになり、モデルがソース ドメインに偏るのを防ぎます。
提案された方法は、目に見えないドメインへの適応性の向上と、目に見えないクラスの検出能力の向上を示しています。
広範な実験により、私たちの手法がいくつかのベンチマークで競争力のあるパフォーマンスを達成できることが示されました。
また、ロジット、機能、頭部への影響を注意深く分析して、この方法を正当化します。

要約(オリジナル)

Open Domain Generalization (ODG) is a challenging task as it not only deals with distribution shifts but also category shifts between the source and target datasets. To handle this task, the model has to learn a generalizable representation that can be applied to unseen domains while also identify unknown classes that were not present during training. Previous work has used multiple source-specific networks, which involve a high computation cost. Therefore, this paper proposes a method that can handle ODG using only a single network. The proposed method utilizes a head that is pre-trained by linear-probing and employs two regularization terms, each targeting the regularization of feature extractor and the classification head, respectively. The two regularization terms fully utilize the pre-trained features and collaborate to modify the head of the model without excessively altering the feature extractor. This ensures a smoother softmax output and prevents the model from being biased towards the source domains. The proposed method shows improved adaptability to unseen domains and increased capability to detect unseen classes as well. Extensive experiments show that our method achieves competitive performance in several benchmarks. We also justify our method with careful analysis of the effect on the logits, features, and the head.

arxiv情報

著者 Inseop Chung,KiYoon Yoo,Nojun Kwak
発行日 2023-12-08 16:22:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク