When Source-Free Domain Adaptation Meets Label Propagation

要約

事前にトレーニングされたソース モデルのみを使用してターゲット ディストリビューションに適応するソースフリー ドメイン適応は、ドメイン適応を達成するためのより一般的なアプローチです。
ただし、ターゲット ドメインに関する監視された情報が不足しているため、ターゲット フィーチャの固有の構造を正確にキャプチャすることは困難な場合があります。
この問題に取り組むために、ラベル伝播の観点から効率的な機能クラスタリングを実現しようとする、Adaptive Local Transfer (ALT) と呼ばれる新しいアプローチを提案します。
ALT は、学習状態の適応しきい値に基づいてターゲット データを内部サンプルと異常値サンプルに分割し、データ プロパティに最適なカスタマイズされた学習戦略を適用します。
具体的には、内部サンプルは、比較的よくクラスター化されたプロパティのおかげで、クラス内構造を学習するために利用されます。
低密度の外れ値サンプルは、入力の一貫性によって正則化され、グラウンド トゥルース ラベルに関して高い精度が達成されます。
このようにして、部分母集団間でラベル情報を効果的に伝搬しながら、ローカル クラスタリングが偽のクラスターを形成するのを防ぐことができます。
Office-31、Office-Home、VisDA の 3 つの公開ベンチマークで、ALT が最新技術を上回っていることが実証されています。

要約(オリジナル)

Source-free domain adaptation, where only a pre-trained source model is used to adapt to the target distribution, is a more general approach to achieving domain adaptation. However, it can be challenging to capture the inherent structure of the target features accurately due to the lack of supervised information on the target domain. To tackle this problem, we propose a novel approach called Adaptive Local Transfer (ALT) that tries to achieve efficient feature clustering from the perspective of label propagation. ALT divides the target data into inner and outlier samples based on the adaptive threshold of the learning state, and applies a customized learning strategy to best fits the data property. Specifically, inner samples are utilized for learning intra-class structure thanks to their relatively well-clustered properties. The low-density outlier samples are regularized by input consistency to achieve high accuracy with respect to the ground truth labels. In this way, local clustering can be prevented from forming spurious clusters while effectively propagating label information among subpopulations. Empirical evidence demonstrates that ALT outperforms the state of the arts on three public benchmarks: Office-31, Office-Home, and VisDA.

arxiv情報

著者 Chunwei Wu,Guitao Cao,Yan Li,Xidong Xi,Wenming Cao,Hong Wang
発行日 2023-01-20 03:39:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク