要約
この作業では、ドメイン一般化 (DG) とデータフリー学習の未知の交差点を調査します。
具体的には、次のような問題に対処します。異なるソース ドメインでトレーニングされたモデルに含まれる知識を、ソース ドメインとターゲット ドメインのデータがない場合に、目に見えないターゲット ドメインに適切に一般化する単一のモデルにマージするにはどうすればよいでしょうか?
ドメイン シフトに対応できる機械学習モデルは、データ分布が頻繁に変化する現実世界のシナリオに不可欠です。
以前の DG メソッドは通常、ソース ドメイン データの使用に依存しているため、プライベートな分散データには適していません。
元のデータセットの代わりにソース ドメインで個別にトレーニングされたモデルを利用できる実用的な設定である Data-Free Domain Generalization (DFDG) の新しい問題を定義し、その場合のドメインの一般化の問題を効果的に解決する方法を調査します。
DEKAN は、利用可能な教師モデルからドメイン固有の知識を抽出して融合し、ドメイン シフトに対して堅牢な生徒モデルにするアプローチです。
私たちの経験的評価は、データフリーの知識蒸留とアンサンブルベースラインを大幅に上回ることにより、DFDGで最初の最先端の結果を達成する私たちの方法の有効性を示しています。
要約(オリジナル)
In this work, we investigate the unexplored intersection of domain generalization (DG) and data-free learning. In particular, we address the question: How can knowledge contained in models trained on different source domains be merged into a single model that generalizes well to unseen target domains, in the absence of source and target domain data? Machine learning models that can cope with domain shift are essential for real-world scenarios with often changing data distributions. Prior DG methods typically rely on using source domain data, making them unsuitable for private decentralized data. We define the novel problem of Data-Free Domain Generalization (DFDG), a practical setting where models trained on the source domains separately are available instead of the original datasets, and investigate how to effectively solve the domain generalization problem in that case. We propose DEKAN, an approach that extracts and fuses domain-specific knowledge from the available teacher models into a student model robust to domain shift. Our empirical evaluation demonstrates the effectiveness of our method which achieves first state-of-the-art results in DFDG by significantly outperforming data-free knowledge distillation and ensemble baselines.
arxiv情報
著者 | Ahmed Frikha,Haokun Chen,Denis Krompaß,Thomas Runkler,Volker Tresp |
発行日 | 2022-11-14 14:30:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google