要約
ユニバーサル ドメイン アダプテーション (UniDA) は、ラベル セットに関する事前知識なしに、共通クラスの知識をソース ドメインからターゲット ドメインに転送することを目的としています。そのためには、ターゲット ドメイン内で未知のサンプルと既知のサンプルを区別する必要があります。
最近の手法は通常、既知サンプルと未知サンプルを区別するのではなく、ターゲット サンプルをソース クラスの 1 つに分類することに焦点を当てており、既知サンプルと未知サンプル間のサンプル間の親和性が無視され、最適なパフォーマンスが得られない可能性があります。
この問題を目指して、我々はそのようなサンプル間の親和性を利用する新しいUDAフレームワークを提案します。
具体的には、次の 2 つのステップに分割できる知識ベースのラベル付けスキームを導入します。 1) サンプルの近傍の固有構造に基づく、既知サンプルと未知サンプルの知識ベースの検出。ここでは、親和性の最初の特異ベクトルを活用します。
行列を使用して、すべてのターゲット サンプルの既知性を取得します。
2) ターゲット サンプルのラベルを再設定するための近傍一貫性に基づくラベルの洗練。ここでは、予測の近傍一貫性に基づいて各ターゲット サンプルのラベルを洗練します。
次に、2 つのステップに基づく補助損失を使用して、未知のターゲット サンプルと既知のターゲット サンプル間のサンプル間親和性を低減します。
最後に、4 つの公開データセットでの実験により、私たちの方法が既存の最先端の方法を大幅に上回ることが実証されました。
要約(オリジナル)
Universal domain adaptation (UniDA) aims to transfer the knowledge of common classes from the source domain to the target domain without any prior knowledge on the label set, which requires distinguishing in the target domain the unknown samples from the known ones. Recent methods usually focused on categorizing a target sample into one of the source classes rather than distinguishing known and unknown samples, which ignores the inter-sample affinity between known and unknown samples and may lead to suboptimal performance. Aiming at this issue, we propose a novel UDA framework where such inter-sample affinity is exploited. Specifically, we introduce a knowability-based labeling scheme which can be divided into two steps: 1) Knowability-guided detection of known and unknown samples based on the intrinsic structure of the neighborhoods of samples, where we leverage the first singular vectors of the affinity matrices to obtain the knowability of every target sample. 2) Label refinement based on neighborhood consistency to relabel the target samples, where we refine the labels of each target sample based on its neighborhood consistency of predictions. Then, auxiliary losses based on the two steps are used to reduce the inter-sample affinity between the unknown and the known target samples. Finally, experiments on four public datasets demonstrate that our method significantly outperforms existing state-of-the-art methods.
arxiv情報
著者 | Yifan Wang,Lin Zhang,Ran Song,Hongliang Li,Paul L. Rosin,Wei Zhang |
発行日 | 2023-08-22 15:46:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google