要約
タイトル:Few-shot Fine-tuning is All You Need for Source-free Domain Adaptation
要約:
– 近年、ラベル付きソースデータが常に利用できると仮定する無監督ドメイン適応(UDA)に比べて、ソースフリーな非監督ドメイン適応(SFUDA)がより実用的で実現可能なアプローチとして提唱されてきた。
– しかし、SFUDAアプローチには重要な制約があり、最適なハイパーパラメータを決定する基本的な方法が欠如していることや、ラベルの分布がソースデータと同じクローズドセットであることなど、ターゲットデータが特定の要件を満たさない場合には性能が低下することなど。これらの制限はすべて、SFUDAが完全に無ラベルのターゲットデータに依存していることに起因する。
– 既存のSFUDAメソッドの制限を実世界のシナリオで実証し、アプリケーションにおいては安全に適用できないことを確認した。
– これらの制限を回避するために、わずかでもラベル付きデータ(1-3ショットなど)を使用して、ソース事前トレーニングモデルを微調整することが、SFUDAの制限を回避する実用的かつ信頼性の高い解決策であると主張している。
– 慎重に微調整されたモデルは、わずかなラベル付きデータでトレーニングされた場合でも過学習に悩まされることはなく、サンプリングバイアスによる性能の変化もほとんどないことがわかっている。
– さまざまなドメイン適応ベンチマークでの実験結果は、少数のショットファインチューニングアプローチが標準SFUDA設定で比較的高い性能を発揮し、現実的なシナリオでは比較方法よりも優れていることを示している。
要約(オリジナル)
Recently, source-free unsupervised domain adaptation (SFUDA) has emerged as a more practical and feasible approach compared to unsupervised domain adaptation (UDA) which assumes that labeled source data are always accessible. However, significant limitations associated with SFUDA approaches are often overlooked, which limits their practicality in real-world applications. These limitations include a lack of principled ways to determine optimal hyperparameters and performance degradation when the unlabeled target data fail to meet certain requirements such as a closed-set and identical label distribution to the source data. All these limitations stem from the fact that SFUDA entirely relies on unlabeled target data. We empirically demonstrate the limitations of existing SFUDA methods in real-world scenarios including out-of-distribution and label distribution shifts in target data, and verify that none of these methods can be safely applied to real-world settings. Based on our experimental results, we claim that fine-tuning a source pretrained model with a few labeled data (e.g., 1- or 3-shot) is a practical and reliable solution to circumvent the limitations of SFUDA. Contrary to common belief, we find that carefully fine-tuned models do not suffer from overfitting even when trained with only a few labeled data, and also show little change in performance due to sampling bias. Our experimental results on various domain adaptation benchmarks demonstrate that the few-shot fine-tuning approach performs comparatively under the standard SFUDA settings, and outperforms comparison methods under realistic scenarios. Our code is available at https://github.com/daintlab/fewshot-SFDA .
arxiv情報
| 著者 | Suho Lee,Seungwon Seo,Jihyo Kim,Yejin Lee,Sangheum Hwang |
| 発行日 | 2023-04-03 08:24:40+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI