要約
この論文では、複数のラベル付きソース ドメインからラベルのないターゲット ドメインに知識を転送する際のデータ分散の変化を軽減することを目的としたマルチソース ドメイン アダプテーション (MSDA) の解決を目指します。
辞書学習と最適なトランスポートに基づいた新しい MSDA フレームワークを提案します。
MSDA の各ドメインを経験的な分布として解釈します。
したがって、各ドメインを辞書アトムのワッサーシュタイン重心として表現します。これは経験的な分布です。
我々は、ミニバッチによる学習のための新しいアルゴリズム DaDiL を提案します。 (i) 原子分布。
(ii) 重心座標の行列。
私たちの辞書に基づいて、MSDA 向けに 2 つの新しい方法を提案します。1 つはターゲット ドメインのラベル付きサンプルの再構成に基づく DaDil-R、もう 1 つは原子分布で学習された分類器のアンサンブルに基づく DaDiL-E です。
私たちは、Caltech-Office、Office 31、CRWU の 3 つのベンチマークで手法を評価し、分類パフォーマンスにおいて以前の最先端技術より 3.15%、2.29%、7.71% 向上しました。
最後に、学習された原子の Wasserstein 包での内挿により、ターゲット ドメインに一般化できるデータが提供されることを示します。
要約(オリジナル)
This paper seeks to solve Multi-Source Domain Adaptation (MSDA), which aims to mitigate data distribution shifts when transferring knowledge from multiple labeled source domains to an unlabeled target domain. We propose a novel MSDA framework based on dictionary learning and optimal transport. We interpret each domain in MSDA as an empirical distribution. As such, we express each domain as a Wasserstein barycenter of dictionary atoms, which are empirical distributions. We propose a novel algorithm, DaDiL, for learning via mini-batches: (i) atom distributions; (ii) a matrix of barycentric coordinates. Based on our dictionary, we propose two novel methods for MSDA: DaDil-R, based on the reconstruction of labeled samples in the target domain, and DaDiL-E, based on the ensembling of classifiers learned on atom distributions. We evaluate our methods in 3 benchmarks: Caltech-Office, Office 31, and CRWU, where we improved previous state-of-the-art by 3.15%, 2.29%, and 7.71% in classification performance. Finally, we show that interpolations in the Wasserstein hull of learned atoms provide data that can generalize to the target domain.
arxiv情報
著者 | Eduardo Fernandes Montesuma,Fred Ngolè Mboula,Antoine Souloumiac |
発行日 | 2023-08-22 07:33:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google