Open-Set Multi-Source Multi-Target Domain Adaptation

要約

Single-Source Single-Target Domain Adaptation (1S1T)は、ラベル付けされたソースドメインとラベル付けされていないターゲットドメインとの間のギャップを埋めることを目的としています。1S1Tはよく研究されたトピックであるにもかかわらず、一般的に実世界に展開されていません。マルチソースドメイン適応やマルチターゲットドメイン適応のような方法は、実世界の問題をモデル化するために発展してきましたが、まだうまく一般化されていないのが実情です。これらの手法の多くは、ソースとターゲットの間で共通のラベルセットを仮定しているため、非常に制約が多いのである。また、最近のオープンセットドメイン適応法は、未知のターゲットラベルを扱うが、複数ドメインでの汎化には失敗している。これらの困難を克服するために、まず、我々は、Open-Set Multi-Source Multi-Target Domain Adaptation (OS-nSmT) という新しい汎用ドメイン適応(DA)設定を提案する(nとmはそれぞれソースとターゲットのドメインの数)。次に、ターゲットの正確なラベルセットを知らなくても、複数のソースとターゲットドメインから情報を取得することができるグラフアテンションベースのフレームワークDEGAAを提案する。本手法は、複数のソースと複数のターゲットに対して提供されるが、他の様々なDA設定に対しても不可知論的であることを主張する。DEGAAの頑健性と汎用性を確認するために、我々は十分な実験とアブレーション研究を行った。

要約(オリジナル)

Single-Source Single-Target Domain Adaptation (1S1T) aims to bridge the gap between a labelled source domain and an unlabelled target domain. Despite 1S1T being a well-researched topic, they are typically not deployed to the real world. Methods like Multi-Source Domain Adaptation and Multi-Target Domain Adaptation have evolved to model real-world problems but still do not generalise well. The fact that most of these methods assume a common label-set between source and target is very restrictive. Recent Open-Set Domain Adaptation methods handle unknown target labels but fail to generalise in multiple domains. To overcome these difficulties, first, we propose a novel generic domain adaptation (DA) setting named Open-Set Multi-Source Multi-Target Domain Adaptation (OS-nSmT), with n and m being number of source and target domains respectively. Next, we propose a graph attention based framework named DEGAA which can capture information from multiple source and target domains without knowing the exact label-set of the target. We argue that our method, though offered for multiple sources and multiple targets, can also be agnostic to various other DA settings. To check the robustness and versatility of DEGAA, we put forward ample experiments and ablation studies.

arxiv情報

著者 Rohit Lal,Arihant Gaur,Aadhithya Iyer,Muhammed Abdullah Shaikh,Ritik Agrawal
発行日 2023-02-03 17:58:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク