Multi-Source Domain Adaptation through Dataset Dictionary Learning in Wasserstein Space

要約

この論文では、複数のラベル付きソース ドメインからラベルのないターゲット ドメインに知識を転送する際のデータ分散の変化を軽減することを目的としたマルチソース ドメイン アダプテーション (MSDA) の解決を目指します。
辞書学習と最適なトランスポートに基づいた新しい MSDA フレームワークを提案します。
MSDA の各ドメインを経験的な分布として解釈します。
したがって、各ドメインを辞書アトムのワッサーシュタイン重心として表現します。これは経験的な分布です。
我々は、ミニバッチによる学習のための新しいアルゴリズム DaDiL を提案します。 (i) 原子分布。
(ii) 重心座標の行列。
私たちの辞書に基づいて、MSDA 向けに 2 つの新しい方法を提案します。1 つはターゲット ドメインのラベル付きサンプルの再構成に基づく DaDil-R、もう 1 つは原子分布で学習された分類器のアンサンブルに基づく DaDiL-E です。
私たちは、Caltech-Office、Office 31、CRWU の 3 つのベンチマークで手法を評価し、分類パフォーマンスにおいて以前の最先端技術より 3.15%、2.29%、7.71% 向上しました。
最後に、学習された原子の Wasserstein 包での内挿により、ターゲット ドメインに一般化できるデータが提供されることを示します。

要約(オリジナル)

This paper seeks to solve Multi-Source Domain Adaptation (MSDA), which aims to mitigate data distribution shifts when transferring knowledge from multiple labeled source domains to an unlabeled target domain. We propose a novel MSDA framework based on dictionary learning and optimal transport. We interpret each domain in MSDA as an empirical distribution. As such, we express each domain as a Wasserstein barycenter of dictionary atoms, which are empirical distributions. We propose a novel algorithm, DaDiL, for learning via mini-batches: (i) atom distributions; (ii) a matrix of barycentric coordinates. Based on our dictionary, we propose two novel methods for MSDA: DaDil-R, based on the reconstruction of labeled samples in the target domain, and DaDiL-E, based on the ensembling of classifiers learned on atom distributions. We evaluate our methods in 3 benchmarks: Caltech-Office, Office 31, and CRWU, where we improved previous state-of-the-art by 3.15%, 2.29%, and 7.71% in classification performance. Finally, we show that interpolations in the Wasserstein hull of learned atoms provide data that can generalize to the target domain.

arxiv情報

著者 Eduardo Fernandes Montesuma,Fred Ngolè Mboula,Antoine Souloumiac
発行日 2023-08-22 07:33:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク