Better Pseudo-label: Joint Domain-aware Label and Dual-classifier for Semi-supervised Domain Generalization

要約

トレーニングされたモデルを目に見えないターゲット ドメインに直接一般化することを目標に、新しく提案された学習パラダイムであるドメイン一般化 (DG) が大きな注目を集めています。
以前の DG モデルでは、通常、トレーニング中に観察されたソース ドメインからの十分な量の注釈付きサンプルが必要です。
このホワイト ペーパーでは、完全な注釈に関するこの要件を緩和し、トレーニング プロセスで完全にラベル付けされていない他のドメインと共に 1 つのソース ドメインのみに完全に注釈が付けられる、半教師ありドメインの一般化 (SSDG) を調査します。
観測されたソースドメイン間のドメインギャップに取り組み、目に見えないターゲットドメインを予測するという課題により、共同ドメイン認識ラベルとデュアル分類器を介して新しい深いフレームワークを提案し、高品質の疑似ラベルを生成します。
具体的には、ドメインシフト下で正確な疑似ラベルを予測するために、ドメインを意識した疑似ラベル付けモジュールが開発されています。
また、一般化と疑似ラベリングの間の矛盾した目標を考慮してください。前者はすべてのソースドメインでオーバーフィッティングを防ぎ、後者は高精度のためにラベル付けされていないソースドメインをオーバーフィッティングする可能性があるため、トレーニングプロセスで疑似ラベリングとドメインの一般化を個別に実行するためにデュアル分類子を使用します
.
ラベル付けされていないソース ドメインに対して正確な疑似ラベルが生成されると、ドメイン ミックスアップ操作が適用されて、ラベル付けされたドメインとラベル付けされていないドメインの間で新しいドメインが拡張されます。これは、モデルの一般化機能を高めるのに役立ちます。
公開されている DG ベンチマーク データセットに関する広範な結果は、提案された SSDG メソッドの有効性を示しています。

要約(オリジナル)

With the goal of directly generalizing trained model to unseen target domains, domain generalization (DG), a newly proposed learning paradigm, has attracted considerable attention. Previous DG models usually require a sufficient quantity of annotated samples from observed source domains during training. In this paper, we relax this requirement about full annotation and investigate semi-supervised domain generalization (SSDG) where only one source domain is fully annotated along with the other domains totally unlabeled in the training process. With the challenges of tackling the domain gap between observed source domains and predicting unseen target domains, we propose a novel deep framework via joint domain-aware labels and dual-classifier to produce high-quality pseudo-labels. Concretely, to predict accurate pseudo-labels under domain shift, a domain-aware pseudo-labeling module is developed. Also, considering inconsistent goals between generalization and pseudo-labeling: former prevents overfitting on all source domains while latter might overfit the unlabeled source domains for high accuracy, we employ a dual-classifier to independently perform pseudo-labeling and domain generalization in the training process. When accurate pseudo-labels are generated for unlabeled source domains, the domain mixup operation is applied to augment new domains between labeled and unlabeled domains, which is beneficial for boosting the generalization capability of the model. Extensive results on publicly available DG benchmark datasets show the efficacy of our proposed SSDG method.

arxiv情報

著者 Ruiqi Wang,Lei Qi,Yinghuan Shi,Yang Gao
発行日 2022-08-17 15:46:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク