Source-Free Domain Adaptation with Diffusion-Guided Source Data Generation

要約

このペーパーでは、ソースフリー ドメイン適応のための拡散モデル (DM-SFDA) の一般化機能を活用する新しいアプローチを紹介します。
私たちが提案する DM-SFDA 手法には、事前にトレーニングされたテキストから画像への拡散モデルを微調整し、拡散プロセスをガイドするターゲット画像の特徴を使用してソース ドメイン画像を生成することが含まれます。
具体的には、事前トレーニングされた拡散モデルを微調整して、エントロピーを最小化し、事前トレーニングされたソース モデルの信頼性を最大化するソース サンプルを生成します。
次に、確立された教師なしドメイン適応技術を適用して、生成されたソース画像をターゲット ドメイン データと位置合わせします。
私たちは、Office-31、Office-Home、VisDA などのさまざまなデータセットにわたる包括的な実験を通じてアプローチを検証します。
この結果は、SFDA パフォーマンスの大幅な向上を強調し、文脈に関連したドメイン固有の画像を生成する際の拡散モデルの可能性を示しています。

要約(オリジナル)

This paper introduces a novel approach to leverage the generalizability capability of Diffusion Models for Source-Free Domain Adaptation (DM-SFDA). Our proposed DM-SFDA method involves fine-tuning a pre-trained text-to-image diffusion model to generate source domain images using features from the target images to guide the diffusion process. Specifically, the pre-trained diffusion model is fine-tuned to generate source samples that minimize entropy and maximize confidence for the pre-trained source model. We then apply established unsupervised domain adaptation techniques to align the generated source images with target domain data. We validate our approach through comprehensive experiments across a range of datasets, including Office-31, Office-Home, and VisDA. The results highlight significant improvements in SFDA performance, showcasing the potential of diffusion models in generating contextually relevant, domain-specific images.

arxiv情報

著者 Shivang Chopra,Suraj Kothawade,Houda Aynaou,Aman Chadha
発行日 2024-02-07 14:56:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク