High-level semantic feature matters few-shot unsupervised domain adaptation

要約

FS-UDA (few-shot unsupervised domain adaptation) では,既存の手法の多くが,(ResNet などの)従来の畳み込みモデルから学習した低レベルの局所特徴を分類に利用する few-shot learning (FSL) 手法を踏襲している.しかし、FS-UDAは分類対象が分類元ではなく分類先であるため、FSLとFS-UDAの目的は異なっています。また、FS-UDAでは局所特徴量が不十分であり、ノイズや偏りが生じ、効果的なドメイン間アライメントに利用できない可能性があることが分かった。そこで、我々は局所特徴量をより識別性が高く、分類に適したものに改良することを目的とする。そこで、我々はFS-UDAのための新しいタスク別意味特徴学習法(TSECS)を提案する。TSECSは画像からクラスへの類似度測定のための高レベルの意味的特徴を学習する。TSECSは画像からクラスへの類似度測定のための高レベルの意味特徴を学習し、その特徴に基づいて、ソースドメインにおける少数のラベル付きサンプルをターゲットドメインにおける分類器の構築に利用するクロスドメイン自己学習戦略を設計する。さらに、ソースドメインとターゲットドメイン間の高レベル特徴量分布のKLダイバージェンスを最小化し、2つのドメイン間のサンプルの距離を短縮する。DomainNetを用いた広範な実験により、提案手法はFS-UDAにおいてSOTA手法を大きなマージン(すなわち10%)で上回ることが示された。

要約(オリジナル)

In few-shot unsupervised domain adaptation (FS-UDA), most existing methods followed the few-shot learning (FSL) methods to leverage the low-level local features (learned from conventional convolutional models, e.g., ResNet) for classification. However, the goal of FS-UDA and FSL are relevant yet distinct, since FS-UDA aims to classify the samples in target domain rather than source domain. We found that the local features are insufficient to FS-UDA, which could introduce noise or bias against classification, and not be used to effectively align the domains. To address the above issues, we aim to refine the local features to be more discriminative and relevant to classification. Thus, we propose a novel task-specific semantic feature learning method (TSECS) for FS-UDA. TSECS learns high-level semantic features for image-to-class similarity measurement. Based on the high-level features, we design a cross-domain self-training strategy to leverage the few labeled samples in source domain to build the classifier in target domain. In addition, we minimize the KL divergence of the high-level feature distributions between source and target domains to shorten the distance of the samples between the two domains. Extensive experiments on DomainNet show that the proposed method significantly outperforms SOTA methods in FS-UDA by a large margin (i.e., 10%).

arxiv情報

著者 Lei Yu,Wanqi Yang,Shengqi Huang,Lei Wang,Ming Yang
発行日 2023-01-05 08:39:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク