Learning to Discover Knowledge: A Weakly-Supervised Partial Domain Adaptation Approach

要約

ドメイン適応は、豊富なアノテーションを備えたソース ドメインからの知識を活用することで、魅力的なパフォーマンスを示しました。
ただし、特定のターゲット タスクについては、関連する高品質のソース ドメインを収集するのは面倒です。
現実世界のシナリオでは、ノイズの多いラベルで破損した大規模なデータセットは簡単に収集できるため、一般化された設定、つまり分類器を転送する弱教師付き部分領域適応 (WS-PDA) での自動認識に対する大きな需要が刺激されます。
ラベルにノイズのある大きなソース ドメインから、ラベルのない小さなターゲット ドメインまで。
したがって、WS-PDA の重要な問題は、1) ノイズの多いラベル付きソース ドメインとラベルなしターゲット ドメインから知識を十分に発見する方法、および 2) ドメイン間で知識を適切に適応させる方法です。
この論文では、上記の問題に対処するために、セルフペース転送分類器学習 (SP-TCL) と呼ばれる、シンプルかつ効果的なドメイン適応アプローチを提案します。これは、いくつかの一般化されたドメイン適応タスクの優れたパフォーマンスのベースラインと見なすことができます。

提案されたモデルは、ターゲット ドメインに適した分類器を求めて、自己ペース学習スキームに基づいて確立されます。
具体的には、SP-TCL は、慎重に設計された賢明な損失関数を介して忠実な知識を発見することを学習し、同時に、マイペースな方法でトレーニングからソース例を繰り返し除外することで、学習した知識をターゲット領域に適応させます。
いくつかのベンチマーク データセットに対する広範な評価により、SP-TCL がいくつかの一般化されたドメイン適応タスクにおいて最先端のアプローチよりも大幅に優れていることが実証されました。

要約(オリジナル)

Domain adaptation has shown appealing performance by leveraging knowledge from a source domain with rich annotations. However, for a specific target task, it is cumbersome to collect related and high-quality source domains. In real-world scenarios, large-scale datasets corrupted with noisy labels are easy to collect, stimulating a great demand for automatic recognition in a generalized setting, i.e., weakly-supervised partial domain adaptation (WS-PDA), which transfers a classifier from a large source domain with noises in labels to a small unlabeled target domain. As such, the key issues of WS-PDA are: 1) how to sufficiently discover the knowledge from the noisy labeled source domain and the unlabeled target domain, and 2) how to successfully adapt the knowledge across domains. In this paper, we propose a simple yet effective domain adaptation approach, termed as self-paced transfer classifier learning (SP-TCL), to address the above issues, which could be regarded as a well-performing baseline for several generalized domain adaptation tasks. The proposed model is established upon the self-paced learning scheme, seeking a preferable classifier for the target domain. Specifically, SP-TCL learns to discover faithful knowledge via a carefully designed prudent loss function and simultaneously adapts the learned knowledge to the target domain by iteratively excluding source examples from training under the self-paced fashion. Extensive evaluations on several benchmark datasets demonstrate that SP-TCL significantly outperforms state-of-the-art approaches on several generalized domain adaptation tasks.

arxiv情報

著者 Mengcheng Lan,Min Meng,Jun Yu,Jigang Wu
発行日 2024-06-20 12:54:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク