Exploiting Inter-Sample Affinity for Knowability-Aware Universal Domain Adaptation

要約

ユニバーサル ドメイン アダプテーション (UDA) は、共通クラスの知識をソース ドメインからターゲット ドメインに転送することを目的としています。これには、ラベル セットに関する事前の知識がなくても、ターゲット ドメインで未知のサンプルと既知のサンプルを区別する必要があります。
最近の方法は通常、既知のサンプルと未知のサンプルを区別するのではなく、ターゲット サンプルをソース クラスの 1 つに分類することに重点を置いています。
この問題を目指して、このようなサンプル間の親和性が利用される新しい UDA フレームワークを提案します。
具体的には、次の 2 つのステップに分割できる既知性ベースのラベリング スキームを導入します。
マトリックスを使用して、すべてのターゲット サンプルの認識可能性を取得します。
2) ターゲット サンプルを再ラベル付けするための近傍整合性に基づくラベルの絞り込み。ここでは、予測の近傍整合性に基づいて各ターゲット サンプルのラベルを絞り込みます。
次に、2 つのステップに基づく補助損失を使用して、未知のターゲット サンプルと既知のターゲット サンプルの間のサンプル間親和性を低減します。
最後に、4 つの公開データセットでの実験は、私たちの方法が既存の最先端の方法よりも大幅に優れていることを示しています。

要約(オリジナル)

Universal domain adaptation (UDA) aims to transfer the knowledge of common classes from the source domain to the target domain without any prior knowledge on the label set, which requires distinguishing in the target domain the unknown samples from the known ones. Recent methods usually focused on categorizing a target sample into one of the source classes rather than distinguishing known and unknown samples, which ignores the inter-sample affinity between known and unknown samples and may lead to suboptimal performance. Aiming at this issue, we propose a novel UDA framework where such inter-sample affinity is exploited. Specifically, we introduce a knowability-based labeling scheme which can be divided into two steps: 1) Knowability-guided detection of known and unknown samples based on the intrinsic structure of the neighborhoods of samples, where we leverage the first singular vectors of the affinity matrices to obtain the knowability of every target sample. 2) Label refinement based on neighborhood consistency to relabel the target samples, where we refine the labels of each target sample based on its neighborhood consistency of predictions. Then, auxiliary losses based on the two steps are used to reduce the inter-sample affinity between the unknown and the known target samples. Finally, experiments on four public datasets demonstrate that our method significantly outperforms existing state-of-the-art methods.

arxiv情報

著者 Yifan Wang,Lin Zhang,Ran Song,Hongliang Li,Paul L. Rosin,Wei Zhang
発行日 2023-01-02 14:12:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク