Unsupervised Domain Adaptation Based on the Predictive Uncertainty of Models

要約

教師なしドメイン適応 (UDA) は、ソース ドメインからの分布シフトの下で、ターゲット ドメインの予測パフォーマンスを向上させることを目的としています。
UDA の重要な原則は、ソース ドメインとターゲット ドメインの間の差異を最小限に抑えることです。
この原則に従うために、多くの方法ではドメイン識別子を使用して特徴分布を照合します。
最近のいくつかの方法では、ターゲット サンプルの 2 つの予測間の不一致を評価して、ソース分布から逸脱したものを検出します。
ただし、周辺分布に一致するか、発散を保守的に測定するため、パフォーマンスは制限されます。
この論文では、ドメインの発散を最小限に抑えるドメイン不変の機能を学習する新しいUDAメソッドを紹介します。
ドメインの発散の尺度として、モデルの不確実性を提案します。
モデルの不確実性に基づく UDA メソッド (MUDA) は、ベイジアン フレームワークを採用し、モンテカルロ ドロップアウト サンプリングによってモデルの不確実性を評価する効率的な方法を提供します。
画像認識タスクに関する実験結果は、私たちの方法が既存の最先端の方法よりも優れていることを示しています。
また、MUDA をマルチソース ドメイン適応問題に拡張します。

要約(オリジナル)

Unsupervised domain adaptation (UDA) aims to improve the prediction performance in the target domain under distribution shifts from the source domain. The key principle of UDA is to minimize the divergence between the source and the target domains. To follow this principle, many methods employ a domain discriminator to match the feature distributions. Some recent methods evaluate the discrepancy between two predictions on target samples to detect those that deviate from the source distribution. However, their performance is limited because they either match the marginal distributions or measure the divergence conservatively. In this paper, we present a novel UDA method that learns domain-invariant features that minimize the domain divergence. We propose model uncertainty as a measure of the domain divergence. Our UDA method based on model uncertainty (MUDA) adopts a Bayesian framework and provides an efficient way to evaluate model uncertainty by means of Monte Carlo dropout sampling. Empirical results on image recognition tasks show that our method is superior to existing state-of-the-art methods. We also extend MUDA to multi-source domain adaptation problems.

arxiv情報

著者 JoonHo Lee,Gyemin Lee
発行日 2022-11-16 12:23:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク