FedTP: Federated Learning by Transformer Personalization

要約

タイトル:FedTP: Transformerパーソナライゼーションによるフェデレーテッドラーニング

要約:

– フェデレーテッドラーニングは、複数のクライアントがプライバシーを保護しながら協力して機械学習モデルをトレーニングする新しい学習パラダイムです。
– パーソナライズフェデレーテッドラーニングは、クライアント間の異質性を克服するために個別のモデルを学習するパラダイムです。
– 最近、Transformersをフェデレーテッドラーニングに適用するための初期の試みがいくつかありました。しかし、フェデレーテッド平均アルゴリズムが自己注意に与える影響についてはまだ研究されていませんでした。
– この論文では、この関係を調べ、異質なデータがある場合、フェデレーテッド平均アルゴリズムが自己注意に負の影響を与えることが判明しました。これらの影響は、フェデレーテッドラーニングの設定でTransformerモデルの能力を制限します。
– この問題を解決するために、我々はFedTPという新しいTransformerベースのフェデレーテッドラーニングフレームワークを提案しました。このフレームワークは、クライアントごとに個別の自己注意を学習する一方で、他のパラメータをクライアント間で集計します。
– さらに、我々はFedTPの汎化界を提示しました。
– FedTPは、様々な画像や言語タスクを同じフェデレーテッドネットワークアーキテクチャで実行できる便利な環境を提供します。これらのすべては、Transformerパーソナライゼーションから利益を得ます。
– 幅広い実験により、学習の全体像は、IIDでない場合でも、学習すべての場合においてFedTPが最先端のパフォーマンスを発揮することを確認しました。我々のコードはオンラインで利用可能です。

要約(オリジナル)

Federated learning is an emerging learning paradigm where multiple clients collaboratively train a machine learning model in a privacy-preserving manner. Personalized federated learning extends this paradigm to overcome heterogeneity across clients by learning personalized models. Recently, there have been some initial attempts to apply Transformers to federated learning. However, the impacts of federated learning algorithms on self-attention have not yet been studied. This paper investigates this relationship and reveals that federated averaging algorithms actually have a negative impact on self-attention where there is data heterogeneity. These impacts limit the capabilities of the Transformer model in federated learning settings. Based on this, we propose FedTP, a novel Transformer-based federated learning framework that learns personalized self-attention for each client while aggregating the other parameters among the clients. Instead of using a vanilla personalization mechanism that maintains personalized self-attention layers of each client locally, we develop a learn-to-personalize mechanism to further encourage the cooperation among clients and to increase the scablability and generalization of FedTP. Specifically, the learn-to-personalize is realized by learning a hypernetwork on the server that outputs the personalized projection matrices of self-attention layers to generate client-wise queries, keys and values. Furthermore, we present the generalization bound for FedTP with the learn-to-personalize mechanism. Notably, FedTP offers a convenient environment for performing a range of image and language tasks using the same federated network architecture – all of which benefit from Transformer personalization. Extensive experiments verify that FedTP with the learn-to-personalize mechanism yields state-of-the-art performance in non-IID scenarios. Our code is available online.

arxiv情報

著者 Hongxia Li,Zhongyi Cai,Jingya Wang,Jiangnan Tang,Weiping Ding,Chin-Teng Lin,Ye Shi
発行日 2023-04-18 07:40:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク