要約
ユニバーサル ドメイン アダプテーション (UniDA) は、未知のサンプルをターゲット ドメイン内の既知のサンプルと区別する必要がある、ラベル セットの想定なしに、ラベル付きソース ドメインからラベルなしターゲット ドメインに知識を転送することを目的としています。
UniDA の主な課題は、同一でないラベル セットが 2 つのドメイン間の不一致を引き起こすことです。
さらに、ソースドメインのドメインの不一致と監視対象の目的により、モデル全体が共通のクラスに偏りやすくなり、未知のサンプルに対して過信した予測が生成されます。
上記の困難な問題に対処するために、新しい不確実性に基づくUniDAフレームワークを提案します。
まず、潜在空間内のターゲット サンプルの分布を十分に活用する未知のクラスに属するターゲット サンプルの確率の経験的推定を紹介します。
次に、推定に基づいて、ターゲットサンプルの不確実性スコアを推定し、未知のサンプルを発見するために、$\delta$ フィルターを使用した線形部分空間での新しい近傍検索スキームを提案します。
ドメインのミスアラインメントの影響を回避するために、ソース ドメイン内のターゲット サンプルとその隣接サンプルとの関係を十分に活用します。
第二に、この論文は、既知のサンプルと未知のサンプルの両方の予測の信頼度を、発見された未知のサンプルの信頼度に基づいた不確実性に基づくマージン損失によってバランスをとります。
未知のクラス。
最後に、3 つの公開データセットでの実験は、私たちの方法が既存の最先端の方法よりも大幅に優れていることを示しています。
要約(オリジナル)
Universal domain adaptation (UniDA) aims to transfer the knowledge from a labeled source domain to an unlabeled target domain without any assumptions of the label sets, which requires distinguishing the unknown samples from the known ones in the target domain. A main challenge of UniDA is that the nonidentical label sets cause the misalignment between the two domains. Moreover, the domain discrepancy and the supervised objectives in the source domain easily lead the whole model to be biased towards the common classes and produce overconfident predictions for unknown samples. To address the above challenging problems, we propose a new uncertainty-guided UniDA framework. Firstly, we introduce an empirical estimation of the probability of a target sample belonging to the unknown class which fully exploits the distribution of the target samples in the latent space. Then, based on the estimation, we propose a novel neighbors searching scheme in a linear subspace with a $\delta$-filter to estimate the uncertainty score of a target sample and discover unknown samples. It fully utilizes the relationship between a target sample and its neighbors in the source domain to avoid the influence of domain misalignment. Secondly, this paper well balances the confidences of predictions for both known and unknown samples through an uncertainty-guided margin loss based on the confidences of discovered unknown samples, which can reduce the gap between the intra-class variances of known classes with respect to the unknown class. Finally, experiments on three public datasets demonstrate that our method significantly outperforms existing state-of-the-art methods.
arxiv情報
著者 | Yifan Wang,Lin Zhang,Ran Song,Wei Zhang |
発行日 | 2023-03-30 14:29:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google