Design of Two-Level Incentive Mechanisms for Hierarchical Federated Learning

要約

階層フェデレーテッド ラーニング (HFL) は、多層計算アーキテクチャ向けに調整された分散機械学習パラダイムであり、デバイスのモデルへの同時大量アクセスをサポートします。
効率的な HFL を実現するには、デバイスがローカル トレーニングに積極的に参加できるように、適切なインセンティブ メカニズムを設計することが重要です。
しかし、HFL に対するインセンティブメカニズムの設計に関する研究はほとんどありません。
この論文では、HFL トレーニングへの各層のエンティティの参加を促進するために、2 層コンピューティング構造を備えた HFL 用の 2 レベルのインセンティブ メカニズムを設計します。
下位レベルのゲームでは、エッジ関連付けと帯域幅割り当て問題を共同最適化するための連合形成ゲームを提案し、提案された優先規則によって効率的な連合パーティションを取得します。これは正確なポテンシャルゲームによって安定していることが証明できます。
上位レベルのゲームでは、Stackelberg ゲーム アルゴリズムを設計します。これは、エッジ サーバーのユーティリティを最大化するためにエッジ アグリゲーションの最適な数を決定するだけでなく、クラウドの利益を確保するためにエッジ アグリゲーションのパフォーマンスに対して提供されるユニット報酬も最適化します。
サーバー。
さらに、数値結果は、提案されたアルゴリズムがベンチマークスキームよりも優れたパフォーマンスを達成できることを示しています。

要約(オリジナル)

Hierarchical Federated Learning (HFL) is a distributed machine learning paradigm tailored for multi-tiered computation architectures, which supports massive access of devices’ models simultaneously. To enable efficient HFL, it is crucial to design suitable incentive mechanisms to ensure that devices actively participate in local training. However, there are few studies on incentive mechanism design for HFL. In this paper, we design two-level incentive mechanisms for the HFL with a two-tiered computing structure to encourage the participation of entities in each tier in the HFL training. In the lower-level game, we propose a coalition formation game to joint optimize the edge association and bandwidth allocation problem, and obtain efficient coalition partitions by the proposed preference rule, which can be proven to be stable by exact potential game. In the upper-level game, we design the Stackelberg game algorithm, which not only determines the optimal number of edge aggregations for edge servers to maximize their utility, but also optimize the unit reward provided for the edge aggregation performance to ensure the interests of cloud servers. Furthermore, numerical results indicate that the proposed algorithms can achieve better performance than the benchmark schemes.

arxiv情報

著者 Shunfeng Chu,Jun Li,Kang Wei,Yuwen Qian,Kunlun Wang,Feng Shu,Wen Chen
発行日 2024-01-16 07:11:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.GT, cs.LG パーマリンク