Multi-Source Domain Adaptation meets Dataset Distillation through Dataset Dictionary Learning

要約

このペーパーでは、機械学習における 2 つの問題、マルチソース ドメイン適応 (MSDA) とデータセット蒸留 (DD) の交差部分について考察します。
一方では、最初の方法では、複数の異種ラベル付きソース ドメインをラベルなしターゲット ドメインに適応させることを検討しています。
一方、2 番目の方法では、データセットに関するすべての情報を含む小さな概要を合成するという問題に取り組みます。
そこで、MSDA-DD と呼ばれる新しい問題を検討します。
これを解決するために、Wasserstein Barycenter Transport や Dataset Dictionary Learning、DD メソッド Distribution Matching などの MSDA 文献の以前の研究を適応させます。
私たちは、この新しい問題を 4 つのベンチマーク (Caltech-Office 10、Tennessee-Eastman Process、Continuous Stirred Tank Reactor、Case Western Reserve University) で徹底的に実験し、クラスあたりわずか 1 つのサンプルでも、次の結果を達成できることを示しました。
最先端の適応パフォーマンス。

要約(オリジナル)

In this paper, we consider the intersection of two problems in machine learning: Multi-Source Domain Adaptation (MSDA) and Dataset Distillation (DD). On the one hand, the first considers adapting multiple heterogeneous labeled source domains to an unlabeled target domain. On the other hand, the second attacks the problem of synthesizing a small summary containing all the information about the datasets. We thus consider a new problem called MSDA-DD. To solve it, we adapt previous works in the MSDA literature, such as Wasserstein Barycenter Transport and Dataset Dictionary Learning, as well as DD method Distribution Matching. We thoroughly experiment with this novel problem on four benchmarks (Caltech-Office 10, Tennessee-Eastman Process, Continuous Stirred Tank Reactor, and Case Western Reserve University), where we show that, even with as little as 1 sample per class, one achieves state-of-the-art adaptation performance.

arxiv情報

著者 Eduardo Fernandes Montesuma,Fred Ngolè Mboula,Antoine Souloumiac
発行日 2023-09-14 12:29:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク