CHATTY: Coupled Holistic Adversarial Transport Terms with Yield for Unsupervised Domain Adaptation

要約

タイトル:CHATTY:Unsupervised Domain Adaptationのための収束した総合敵対的輸送項を備えた収束率

要約:

– CHATTYという新しい技術を提案する。
– CHATTYは、敵対的トレーニングを用いた特徴抽出層のドメインに依存しない表現の学習のために一般的に使用される。
– CHATTYは、敵対的ヘッド、そのトレーニング目標、および分類器ヘッドの重要な変更を提案する。
– CHATTYは、分類器出力を可学習な方法で変位させるサブネットワークを導入して、クラスの混乱を減らすことを目的としている。
– CHATTYは、新しい輸送損失を使用し、クラスクラスターを互いに離れさせ、両方のドメインの決定境界を分類器が容易に見つけられるようにする。
– CHATTYの新しい損失項を注意深く選択した以前の提案された損失と組み合わせることで、UDAの結果が改善されたことを示す。
– CHATTYの提案された損失項の重要性を、抽出表現空間でのターゲットドメインサンプルの可視化と除去研究を使用して示す。

要約(オリジナル)

We propose a new technique called CHATTY: Coupled Holistic Adversarial Transport Terms with Yield for Unsupervised Domain Adaptation. Adversarial training is commonly used for learning domain-invariant representations by reversing the gradients from a domain discriminator head to train the feature extractor layers of a neural network. We propose significant modifications to the adversarial head, its training objective, and the classifier head. With the aim of reducing class confusion, we introduce a sub-network which displaces the classifier outputs of the source and target domain samples in a learnable manner. We control this movement using a novel transport loss that spreads class clusters away from each other and makes it easier for the classifier to find the decision boundaries for both the source and target domains. The results of adding this new loss to a careful selection of previously proposed losses leads to improvement in UDA results compared to the previous state-of-the-art methods on benchmark datasets. We show the importance of the proposed loss term using ablation studies and visualization of the movement of target domain sample in representation space.

arxiv情報

著者 Chirag P,Mukta Wagle,Ravi Kant Gupta,Pranav Jeevan P,Amit Sethi
発行日 2023-04-19 13:00:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, eess.IV パーマリンク