Provably Uncertainty-Guided Universal Domain Adaptation

要約

ユニバーサルドメインアダプテーション(UniDA)は、ラベルセットに関する事前知識なしに、ソースドメインからターゲットドメインへ共通クラスの知識を転送することを目的としており、ターゲットドメインにおいて未知のサンプルと既知のサンプルを区別する必要がある。UniDAの主な課題は、両ドメインのラベル空間が不均等であるため、2つのドメイン間でずれが生じることである。上記の難題に対処するため、我々は新しい不確実性ガイド付きUniDAフレームワークを提案する。まず、ターゲットサンプルの分布を利用して、ターゲットサンプルが未知のクラスに属する確率を経験的に推定することを導入する。次に、この推定に基づいて、ターゲットサンプルの不確実性スコアを推定し、未知サンプルを発見するために、$delta$フィルタを用いた線形部分空間における新しい近傍探索法を提案する。この手法では、ターゲットサンプルとソースドメインにおける近傍サンプルの関係を十分に利用し、ドメインのズレの影響を回避する。次に、本論文では、発見された未知サンプルの予測に基づく不確実性ガイド付きマージンロスによって、既知サンプルと未知サンプルの両方の予測の信頼性をうまくバランスさせ、未知クラスに対する既知クラスのクラス内分散のギャップを低減させることができる。最後に、3つの公共データセットを用いた実験により、本手法が既存の最先端手法を大幅に上回ることを実証する。

要約(オリジナル)

Universal domain adaptation (UniDA) aims to transfer the knowledge of common classes from source domain to target domain without any prior knowledge on the label set, which requires to distinguish the unknown samples from the known ones in the target domain. A main challenge of UniDA is that the unequal label spaces of both domains causes the misalignment between two domains.To address the above challenging problems, we propose a new uncertainty-guided UniDA framework. Firstly, we introduce an empirical estimation of the probability of a target sample belonging to the unknown class with exploiting the distribution of target samples. Then, based on the estimation, we propose a novel neighbors searching method in the linear subspace with a $\delta$-filter to estimate the uncertainty score of a target sample and discover unknown samples. It fully utilizes the relationship between a target sample and its neighbors in source domain to avoid the influence of domain misalignment. Secondly, this paper well balances the confidence of predictions for both known and unknown samples through an uncertainty-guided margin loss based on the predictions of discovered unknown samples, which can reduce the gap between intra-class variance of known classes with respect to the unknown class. Finally, experiments on three public datasets demonstrate that our method significantly outperforms existing state-of-the-art methods.

arxiv情報

著者 Yifan Wang,Lin Zhang,Ran Song,Wei Zhang
発行日 2023-03-06 14:37:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク