要約
オープン セット ドメイン適応 (OSDA) は、ソース ドメインとターゲット ドメインで共有される共通のクラスに属するターゲット サンプルを認識するだけでなく、未知のクラス サンプルを認識することも目的としています。
既存の OSDA メソッドには 2 つの障害があります。
まず、一般的なクラスと未知のクラスを分離するためのほとんどの OSDA アプローチでは、ハイパーパラメーター $threshold$ を手動で調整するという面倒なプロセスが必要です。
ターゲット ドメイン データがラベル付けされていない場合、適切なしきい値を決定することは困難です。
第 2 に、ほとんどの OSDA メソッドは信頼値のみに依存して一般的なクラスと未知のクラスを区別し、限られたソース サンプルとターゲット サンプルを使用してモデルをトレーニングするため、ターゲット ドメインにほとんど未知のクラスがある場合、パフォーマンスが不十分になります。
私たちの研究は、より連続的な潜在空間内で複数の基準を活用することが、モデルのパフォーマンスにとって有益であることを示しています。
この論文では、2つの欠点を克服するために、新しいしきい値自己調整およびクロスドメインミックスアップ(TSCM)方法を設計します。
TSCM は、経験的なハイパーパラメーターを手動で設定するのではなく、ラベルのないターゲット サンプルを利用して適切なしきい値を自動的に調整できます。
私たちの方法は、信頼度だけでなく複数の基準を考慮し、それ自体によって生成されたしきい値を使用して、ターゲット ドメイン内の一般的なクラスと未知のクラスを分離します。
さらに、OSDA シナリオ用に設計されたクロスドメイン混合法を導入して、より連続的な潜在空間でドメイン不変の機能を学習します。
包括的な実験は、さまざまな最先端の方法と比較して、さまざまなベンチマークで一貫して優れたパフォーマンスを達成することを示しています。
要約(オリジナル)
Open-set domain adaptation (OSDA) aims to not only recognize target samples belonging to common classes shared by source and target domains but also perceive unknown class samples. Existing OSDA methods suffer from two obstacles. Firstly, a tedious process of manually tuning a hyperparameter $threshold$ is required for most OSDA approaches to separate common and unknown classes. It is difficult to determine a proper threshold when the target domain data is unlabeled. Secondly, most OSDA methods rely only on confidence values to distinguish between common and unknown classes, using limited source and target samples to train models, leading to unsatisfactory performance when the target domain has mostly unknown classes. Our studies demonstrate that exploiting multiple criteria within a more continuous latent space is beneficial for the model’s performance. In this paper, we design a novel threshold self-tuning and cross-domain mixup (TSCM) method to overcome the two drawbacks. TSCM can automatically tune a proper threshold utilizing unlabeled target samples rather than manually setting an empirical hyperparameter. Our method considers multiple criteria instead of only the confidence and uses the threshold generated by itself to separate common and unknown classes in the target domain. Moreover, we introduce a cross-domain mixup method designed for OSDA scenarios to learn domain-invariant features in a more continuous latent space. Comprehensive experiments illustrate that our method consistently achieves superior performance on different benchmarks compared with various state-of-the-art methods.
arxiv情報
著者 | Xinghong Liu,Yi Zhou,Tao Zhou,Jie Qin,Shengcai Liao |
発行日 | 2023-03-13 02:45:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google