Federated Dataset Dictionary Learning for Multi-Source Domain Adaptation

要約

この記事では、フェデレーテッド ドメイン アダプテーション、つまりクライアント間に分布のシフトが存在し、一部のクライアントにはラベルのないデータが存在する設定のアプローチを提案します。
提案されたフレームワークである FedDaDiL は、経験的分布の辞書学習を通じて、結果として生じる課題に取り組みます。
私たちの設定では、クライアントの分布は特定のドメインを表し、FedDaDiL は経験的分布の連合辞書を集合的にトレーニングします。
特に、協調的な通信プロトコルと集約操作を設計することで、データセット ディクショナリ学習フレームワークを構築します。
選択されたプロトコルはクライアントのデータをプライベートに保つため、集中型のプロトコルと比較して全体的なプライバシーが強化されます。
私たちは、(i) Caltech-Office、(ii) TEP、および (iii) CWRU ベンチマークに関する広範な実験により、私たちのアプローチがターゲット ドメイン上でラベル付きデータを正常に生成できることを経験的に示しています。
さらに、私たちの方法を、集中型の対応物やフェデレーテッド ドメイン適応における他のベンチマークと比較します。

要約(オリジナル)

In this article, we propose an approach for federated domain adaptation, a setting where distributional shift exists among clients and some have unlabeled data. The proposed framework, FedDaDiL, tackles the resulting challenge through dictionary learning of empirical distributions. In our setting, clients’ distributions represent particular domains, and FedDaDiL collectively trains a federated dictionary of empirical distributions. In particular, we build upon the Dataset Dictionary Learning framework by designing collaborative communication protocols and aggregation operations. The chosen protocols keep clients’ data private, thus enhancing overall privacy compared to its centralized counterpart. We empirically demonstrate that our approach successfully generates labeled data on the target domain with extensive experiments on (i) Caltech-Office, (ii) TEP, and (iii) CWRU benchmarks. Furthermore, we compare our method to its centralized counterpart and other benchmarks in federated domain adaptation.

arxiv情報

著者 Fabiola Espinosa Castellon,Eduardo Fernandes Montesuma,Fred Ngolè Mboula,Aurélien Mayoue,Antoine Souloumiac,Cédric Gouy-Pallier
発行日 2023-09-14 12:34:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク