要約
ソースフリー ドメイン適応は、ソース データを公開することなく、ソースでトレーニングされたモデルをターゲット ドメインに転送し、データのプライバシーとセキュリティに関するこれらの懸念を払拭しようとします。
ただし、このパラダイムには、ソース モデルに対する敵対的攻撃によるデータ漏えいのリスクが依然としてあります。
したがって、ブラック ボックス設定ではソース モデルの出力のみを使用できますが、ソース モデルの目に見えない重みにより、ソース ドメインでの過適合がさらに深刻になります。
この論文では、入力レベルとネットワークレベルの両方の正則化からブラックボックスドメインを適応させるために、RAIN (RegulArization on Input and Network) という名前の新しいアプローチを提案します。
入力レベルについては、Phase MixUp として新しいデータ拡張手法を設計します。これは、補間でタスク関連のオブジェクトを強調表示し、入力レベルの正則化とターゲット モデルのクラスの一貫性を強化します。
ネットワークレベルでは、サブネットワーク蒸留メカニズムを開発して、知識蒸留を介してターゲットサブネットワークから完全なターゲットネットワークに知識を転送します。これにより、多様なターゲット表現を学習することにより、ソースドメインでのオーバーフィッティングが軽減されます。
広範な実験により、単一ソースと複数ソースの両方のブラックボックス ドメイン適応の下で、いくつかのクロスドメイン ベンチマークで最先端のパフォーマンスを達成することが示されています。
要約(オリジナル)
Source-Free domain adaptation transits the source-trained model towards target domain without exposing the source data, trying to dispel these concerns about data privacy and security. However, this paradigm is still at risk of data leakage due to adversarial attacks on the source model. Hence, the Black-Box setting only allows to use the outputs of source model, but still suffers from overfitting on the source domain more severely due to source model’s unseen weights. In this paper, we propose a novel approach named RAIN (RegulArization on Input and Network) for Black-Box domain adaptation from both input-level and network-level regularization. For the input-level, we design a new data augmentation technique as Phase MixUp, which highlights task-relevant objects in the interpolations, thus enhancing input-level regularization and class consistency for target models. For network-level, we develop a Subnetwork Distillation mechanism to transfer knowledge from the target subnetwork to the full target network via knowledge distillation, which thus alleviates overfitting on the source domain by learning diverse target representations. Extensive experiments show that our method achieves state-of-the-art performance on several cross-domain benchmarks under both single- and multi-source black-box domain adaptation.
arxiv情報
著者 | Qucheng Peng,Zhengming Ding,Lingjuan Lyu,Lichao Sun,Chen Chen |
発行日 | 2023-01-24 02:50:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google