要約
ユニバーサル ドメイン アダプテーション (UniDA) は、共通クラスの知識をソース ドメインからターゲット ドメインに転送することを目的としています。これには、ラベル セットに関する事前の知識がなくても、未知のサンプルとターゲット ドメインの既知のサンプルを区別する必要があります。
UniDA の主な課題は、両方のドメインの不均等なラベル スペースが 2 つのドメイン間の不整合を引き起こすことです。上記の困難な問題に対処するために、新しい不確実性に基づく UniDA フレームワークを提案します。
最初に、ターゲット サンプルの分布を利用して、未知のクラスに属するターゲット サンプルの確率の経験的推定を紹介します。
次に、推定に基づいて、ターゲットサンプルの不確実性スコアを推定し、未知のサンプルを発見するために、$\delta$ フィルターを使用した線形部分空間での新しい近傍検索方法を提案します。
ドメインの不整合の影響を回避するために、ソース ドメイン内のターゲット サンプルとその隣接サンプルとの関係を十分に活用します。
第二に、この論文では、既知のサンプルと未知のサンプルの両方の予測の信頼度を、発見された未知のサンプルの予測に基づく不確実性に基づくマージン損失によってバランスをとります。
クラス。
最後に、3 つの公開データセットでの実験は、私たちの方法が既存の最先端の方法よりも大幅に優れていることを示しています。
要約(オリジナル)
Universal domain adaptation (UniDA) aims to transfer the knowledge of common classes from source domain to target domain without any prior knowledge on the label set, which requires to distinguish the unknown samples from the known ones in the target domain. A main challenge of UniDA is that the unequal label spaces of both domains causes the misalignment between two domains.To address the above challenging problems, we propose a new uncertainty-guided UniDA framework. Firstly, we introduce an empirical estimation of the probability of a target sample belonging to the unknown class with exploiting the distribution of target samples. Then, based on the estimation, we propose a novel neighbors searching method in the linear subspace with a $\delta$-filter to estimate the uncertainty score of a target sample and discover unknown samples. It fully utilizes the relationship between a target sample and its neighbors in source domain to avoid the influence of domain misalignment. Secondly, this paper well balances the confidence of predictions for both known and unknown samples through an uncertainty-guided margin loss based on the predictions of discovered unknown samples, which can reduce the gap between intra-class variance of known classes with respect to the unknown class. Finally, experiments on three public datasets demonstrate that our method significantly outperforms existing state-of-the-art methods.
arxiv情報
著者 | Yifan Wang,Lin Zhang,Ran Song,Lin Ma,Wei Zhang |
発行日 | 2023-02-21 15:42:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google