要約
タイトル: ビジュアル認識のための発散最適化によるノイズのあるユニバーサルドメインアダプテーション
要約:
-ラベル付きソースドメインから学習された知識をラベルなしのターゲットドメインに転送するために多くの研究が行われているが、ラベルセットが制約されていないユニバーサルドメインアダプテーション(UniDA)に対しては既存の手法が存在する。
– しかしながら、現在のUniDA手法は正しい注釈を持つソースサンプルに依存している。
– 実際の世界では、いくつかのアプリケーションでは完全にクリーンなラベル付きデータを大量に取得することが困難であるため、私たちはノイズのあるUniDAという新しい現実的なシナリオを提案している。
– ノイズのあるUniDAに対処するために、多頭畳み込みニューラルネットワークフレームワークを提案しており、単一の共通の特徴ジェネレーターと複数の異なる決定境界を持つ分類器から構成されている。
– 提案された手法は、ソースドメインのノイズのあるサンプルを検出し、ターゲットドメインの未知のクラスを識別し、さらには異なる分類器の出力の間の出力の分散を最適化することで、ソースドメインとターゲットドメインの分布を整列させることができる。
– 言うまでもなく、提案された手法は、様々なドメインアダプテーションシナリオの徹底的な分析に基づいて存在する既存の方法のほとんどすべてを上回る成果を出した。
– ソースコードは \url{https://github.com/YU1ut/Divergence-Optimization} で入手できる。
要約(オリジナル)
To transfer the knowledge learned from a labeled source domain to an unlabeled target domain, many studies have worked on universal domain adaptation (UniDA), where there is no constraint on the label sets of the source domain and target domain. However, the existing UniDA methods rely on source samples with correct annotations. Due to the limited resources in the real world, it is difficult to obtain a large amount of perfectly clean labeled data in a source domain in some applications. As a result, we propose a novel realistic scenario named Noisy UniDA, in which classifiers are trained using noisy labeled data from the source domain as well as unlabeled domain data from the target domain that has an uncertain class distribution. A multi-head convolutional neural network framework is proposed in this paper to address all of the challenges faced in the Noisy UniDA at once. Our network comprises a single common feature generator and multiple classifiers with various decision bounds. We can detect noisy samples in the source domain, identify unknown classes in the target domain, and align the distribution of the source and target domains by optimizing the divergence between the outputs of the various classifiers. The proposed method outperformed the existing methods in most of the settings after a thorough analysis of the various domain adaption scenarios. The source code is available at \url{https://github.com/YU1ut/Divergence-Optimization}.
arxiv情報
著者 | Qing Yu,Atsushi Hashimoto,Yoshitaka Ushiku |
発行日 | 2023-04-20 14:18:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI