A Potential Game Perspective in Federated Learning

要約

フェデレーション ラーニング (FL) は、分散クライアント間で機械学習モデルをトレーニングするための新しいパラダイムです。
従来、フロリダ州の設定では、中央サーバーがトレーニングの取り組み (または戦略) をクライアントに割り当てます。
ただし、市場志向の観点から見ると、クライアントは合理的な自己利益に基づいてトレーニングの取り組みを独自に選択する可能性があります。
これを調査するために、各クライアントの報酬がクライアントの個々の努力とサーバーによって提供される報酬によって決定される潜在的なゲーム フレームワークを提案します。
報酬はすべてのクライアントの集合的な努力によって影響され、報酬要因によって調整できます。
私たちの研究は、ナッシュ均衡 (NE) の存在を確立することから始まり、その後、均一な環境における独自性の調査が続きます。
私たちは、重要な報酬要素におけるクライアントのトレーニングの取り組みが大幅に改善されたことを実証し、それがサーバーにとって最適な選択であると特定しました。
さらに、FL ゲームの NE を計算するための最良応答アルゴリズムの収束を証明します。
最後に、特定の NE から得られたトレーニングの取り組みを現実世界の FL シナリオに適用し、特定された最適な報酬係数の有効性を検証します。

要約(オリジナル)

Federated learning (FL) is an emerging paradigm for training machine learning models across distributed clients. Traditionally, in FL settings, a central server assigns training efforts (or strategies) to clients. However, from a market-oriented perspective, clients may independently choose their training efforts based on rational self-interest. To explore this, we propose a potential game framework where each client’s payoff is determined by their individual efforts and the rewards provided by the server. The rewards are influenced by the collective efforts of all clients and can be modulated through a reward factor. Our study begins by establishing the existence of Nash equilibria (NEs), followed by an investigation of uniqueness in homogeneous settings. We demonstrate a significant improvement in clients’ training efforts at a critical reward factor, identifying it as the optimal choice for the server. Furthermore, we prove the convergence of the best-response algorithm to compute NEs for our FL game. Finally, we apply the training efforts derived from specific NEs to a real-world FL scenario, validating the effectiveness of the identified optimal reward factor.

arxiv情報

著者 Kang Liu,Ziqi Wang,Enrique Zuazua
発行日 2024-11-18 18:06:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T01, 90C90, 91A10, 93A16, cs.LG パーマリンク