要約
このペーパーでは、まず、より現実的なドメイン アダプテーション (DA) 設定であるソース フリー ブレンディング – ターゲット ドメイン アダプテーション (SF-BTDA) に取り組みます。この設定では、ドメイン ラベルのない複数のターゲット ドメインが混在している場合、ソース ドメイン データにアクセスできません。
以前に。
既存の DA シナリオと比較すると、SF-BTDA は一般に、ソース モデルから生成されたノイズの多いターゲット擬似ラベルとともに、さまざまなターゲットでのさまざまなラベル シフトの共存に直面します。
この論文では、ブレンディングターゲットドメインを分離し、ノイズの多いターゲット擬似ラベルの影響を軽減するための、Evidential Contrastive Alignment (ECA) と呼ばれる新しい方法を提案します。
まず、擬似ターゲットラベルの品質を向上させるために、結果として得られるモデルの精度と確実性の両方を反復的に向上させ、高品質の擬似ターゲットラベルを適応的に生成するための、校正された証拠学習モジュールを提案します。
次に、ドメイン距離行列と信頼性不確実性基準を使用してグラフ対比学習を設計し、ブレンドされたターゲット ドメイン内の同じクラスのサンプルの分布ギャップを最小限に抑えます。これにより、ブレンドされたターゲット内での異なるラベル シフトの共存が軽減されます。
3 つの標準的な DA データセットに基づいて新しいベンチマークを実行しました。ECA は他の手法を大幅に上回り、以前のドメイン ラベルやソース データを使用した手法と比較して同等の結果を達成しました。
要約(オリジナル)
In this paper, we firstly tackle a more realistic Domain Adaptation (DA) setting: Source-Free Blending-Target Domain Adaptation (SF-BTDA), where we can not access to source domain data while facing mixed multiple target domains without any domain labels in prior. Compared to existing DA scenarios, SF-BTDA generally faces the co-existence of different label shifts in different targets, along with noisy target pseudo labels generated from the source model. In this paper, we propose a new method called Evidential Contrastive Alignment (ECA) to decouple the blending target domain and alleviate the effect from noisy target pseudo labels. First, to improve the quality of pseudo target labels, we propose a calibrated evidential learning module to iteratively improve both the accuracy and certainty of the resulting model and adaptively generate high-quality pseudo target labels. Second, we design a graph contrastive learning with the domain distance matrix and confidence-uncertainty criterion, to minimize the distribution gap of samples of a same class in the blended target domains, which alleviates the co-existence of different label shifts in blended targets. We conduct a new benchmark based on three standard DA datasets and ECA outperforms other methods with considerable gains and achieves comparable results compared with those that have domain labels or source data in prior.
arxiv情報
著者 | Juepeng Zheng,Yibin Wen,Jinxiao Zhang,Runmin Dong,Haohuan Fu |
発行日 | 2024-08-14 13:02:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google