Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence

要約

ドメイン アダプテーション (DA) は、ソース ドメインから関連するターゲット ドメインへの知識の伝達を容易にします。
この論文では、実際的な DA パラダイム、すなわちソース データフリー アクティブ ドメイン アダプテーション (SFADA) について調査します。このパラダイムでは、適応中にソース データにアクセスできなくなり、ターゲット ドメインで最小限のアノテーション バジェットが利用可能になります。
ソース データを参照しないと、ラベル付けに最も有益なターゲット サンプルを特定し、適応中にクロスドメイン アライメントを確立し、反復的なクエリと適応プロセスを通じて継続的なパフォーマンス向上を確保する際に、新たな課題が生じます。
これに応えて、追加のオーバーヘッドなしでソースの事前トレーニング済みモデルとアクティブに反復されたモデルから学習した知識を活用するための SFADA の新しいパラダイムである、学習したものから学ぶ (LFTL) を紹介します。
私たちは、前のモデルの仮説から学習する対照的アクティブ サンプリングを提案します。これにより、現在のモデルに有益であり、アクティブ ラーニング全体を通じて継続的に課題となるターゲット サンプルをクエリします。
適応中に、以前の中間モデルから取得されたアクティブに選択されたアンカーの特徴から学習するため、視覚的な持続性ガイドによる適応により、特徴分布の調整とアクティブなサンプルの活用が容易になります。
広く使用されている 3 つのベンチマークに関する広範な実験により、当社の LFTL が最先端のパフォーマンス、優れた計算効率、およびアノテーション予算の増加に伴う継続的な改善を達成していることが示されています。
私たちのコードは https://github.com/lyumengyao/lftl で入手できます。

要約(オリジナル)

Domain Adaptation (DA) facilitates knowledge transfer from a source domain to a related target domain. This paper investigates a practical DA paradigm, namely Source data-Free Active Domain Adaptation (SFADA), where source data becomes inaccessible during adaptation, and a minimum amount of annotation budget is available in the target domain. Without referencing the source data, new challenges emerge in identifying the most informative target samples for labeling, establishing cross-domain alignment during adaptation, and ensuring continuous performance improvements through the iterative query-and-adaptation process. In response, we present learn from the learnt (LFTL), a novel paradigm for SFADA to leverage the learnt knowledge from the source pretrained model and actively iterated models without extra overhead. We propose Contrastive Active Sampling to learn from the hypotheses of the preceding model, thereby querying target samples that are both informative to the current model and persistently challenging throughout active learning. During adaptation, we learn from features of actively selected anchors obtained from previous intermediate models, so that the Visual Persistence-guided Adaptation can facilitate feature distribution alignment and active sample exploitation. Extensive experiments on three widely-used benchmarks show that our LFTL achieves state-of-the-art performance, superior computational efficiency and continuous improvements as the annotation budget increases. Our code is available at https://github.com/lyumengyao/lftl.

arxiv情報

著者 Mengyao Lyu,Tianxiang Hao,Xinhao Xu,Hui Chen,Zijia Lin,Jungong Han,Guiguang Ding
発行日 2024-07-26 17:51:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク