CAusal and collaborative proxy-tasKs lEarning for Semi-Supervised Domain Adaptation

要約

半教師ありドメイン適応 (SSDA) は、ソース ドメイン データといくつかのラベル付きターゲット サンプルを効果的に利用することで、学習者を新しいドメインに適応させます。
これは実用的でありながら、まだ調査されていない研究テーマです。
この論文では、これまで見過ごされてきた 2 つの観点から SSDA 問題を分析し、対応して 2 つの \emph{重要なサブ問題} に分解します: \emph{ロバスト ドメイン適応 (DA) 学習} と \emph{最大クロスドメイン
データ活用}。
\textbf{(i)} 因果理論的観点から、ロバストな DA モデルは、不変の「概念」(画像ラベルへの重要な手がかり) をドメイン間の交絡因子の煩わしさから区別する必要があります。
この目標を達成するために、\emph{concept-invariant samples} を生成して、モデルが因果的介入を通じてサンプルを分類できるようにすることを提案します。これにより、一般化の保証が改善されます。
\textbf{(ii)} 堅牢な DA 理論に基づいて、SSDA をさらに強化するために、豊富なソース ドメイン データといくつかのラベル付きターゲット サンプルを最大限に活用することを目指しています。
その結果、2 つの補完的な半教師あり学習 (SSL) 分類子を利用して偏りのない知識を相互に交換する協調的バイアス軽減学習フレームワークを提案します。
このように取得されたラベルは、クロスドメイン機能のアライメントを容易にし、不変概念の学習を適切に改善します。
私たちの実験的研究では、SSDA データセットでの有効性と一般化の点で、提案されたモデルが SOTA メソッドよりも大幅に優れていることを示しています。

要約(オリジナル)

Semi-supervised domain adaptation (SSDA) adapts a learner to a new domain by effectively utilizing source domain data and a few labeled target samples. It is a practical yet under-investigated research topic. In this paper, we analyze the SSDA problem from two perspectives that have previously been overlooked, and correspondingly decompose it into two \emph{key subproblems}: \emph{robust domain adaptation (DA) learning} and \emph{maximal cross-domain data utilization}. \textbf{(i)} From a causal theoretical view, a robust DA model should distinguish the invariant “concept” (key clue to image label) from the nuisance of confounding factors across domains. To achieve this goal, we propose to generate \emph{concept-invariant samples} to enable the model to classify the samples through causal intervention, yielding improved generalization guarantees; \textbf{(ii)} Based on the robust DA theory, we aim to exploit the maximal utilization of rich source domain data and a few labeled target samples to boost SSDA further. Consequently, we propose a collaboratively debiasing learning framework that utilizes two complementary semi-supervised learning (SSL) classifiers to mutually exchange their unbiased knowledge, which helps unleash the potential of source and target domain training data, thereby producing more convincing pseudo-labels. Such obtained labels facilitate cross-domain feature alignment and duly improve the invariant concept learning. In our experimental study, we show that the proposed model significantly outperforms SOTA methods in terms of effectiveness and generalisability on SSDA datasets.

arxiv情報

著者 Wenqiao Zhang,Changshuo Liu,Can Cui,Beng Chin Ooi
発行日 2023-03-30 16:48:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク