要約
教師なしドメイン適応(UDA)は、ラベルが豊富なソースドメインから、異なるが関連する完全にラベル付けされていないターゲットドメインに知識を転送します。
ドメインシフトの問題に対処するために、ますます多くのUDAメソッドがターゲットサンプルの疑似ラベルを採用して、ターゲットドメインの一般化能力を向上させています。
ただし、ターゲットサンプルの不正確な疑似ラベルは、最適化プロセス中にエラーが蓄積され、最適ではないパフォーマンスをもたらす可能性があります。
さらに、疑似ラベルが生成されると、生成された疑似ラベルを修正する方法はまだ検討されていません。
本論文では、ターゲットドメインの疑似ラベルの精度を向上させるための新しいアプローチを提案します。
まず、従来のUDA方式で粗い疑似ラベルを生成します。
次に、ターゲットサンプルのクラス内類似性を繰り返し利用して、生成された粗い疑似ラベルを改善し、ソースドメインとターゲットドメインを改善された疑似ラベルに合わせます。
疑似ラベルの精度の向上は、最初に異なるサンプルを削除し、次にスパニングツリーを使用して、クラス内サンプル内の誤った疑似ラベルを持つサンプルを削除することによって行われます。
追加の用語として、提案されたアプローチをいくつかの従来のUDAメソッドに適用しました。
実験結果は、提案された方法が疑似ラベルの精度を高め、さらに従来のベースラインよりも識別力があり、ドメイン不変の特徴をもたらすことができることを示しています。
要約(オリジナル)
Unsupervised domain adaptation (UDA) transfers knowledge from a label-rich source domain to a different but related fully-unlabeled target domain. To address the problem of domain shift, more and more UDA methods adopt pseudo labels of the target samples to improve the generalization ability on the target domain. However, inaccurate pseudo labels of the target samples may yield suboptimal performance with error accumulation during the optimization process. Moreover, once the pseudo labels are generated, how to remedy the generated pseudo labels is far from explored. In this paper, we propose a novel approach to improve the accuracy of the pseudo labels in the target domain. It first generates coarse pseudo labels by a conventional UDA method. Then, it iteratively exploits the intra-class similarity of the target samples for improving the generated coarse pseudo labels, and aligns the source and target domains with the improved pseudo labels. The accuracy improvement of the pseudo labels is made by first deleting dissimilar samples, and then using spanning trees to eliminate the samples with the wrong pseudo labels in the intra-class samples. We have applied the proposed approach to several conventional UDA methods as an additional term. Experimental results demonstrate that the proposed method can boost the accuracy of the pseudo labels and further lead to more discriminative and domain invariant features than the conventional baselines.
arxiv情報
著者 | Jie Wang,Xiao-Lei Zhang |
発行日 | 2022-07-25 12:42:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google