Rethinking Clustered Federated Learning in NOMA Enhanced Wireless Networks

要約

この研究では、複数のデバイスが時間制限付きで集約に参加する、非独立かつ同一分散 (非 IID) データセットの下で、新しいクラスター化フェデレーテッド ラーニング (CFL) アプローチと非直交多元接続 (NOMA) を統合する利点を調査します。
有限数のサブチャネル。
データ分布における非 IID の程度を測定する一般化ギャップの詳細な理論分析が示されています。
その後、非 IID 条件によってもたらされる課題に対処するための解決策が、特性の分析とともに提案されます。
具体的には、ユーザーのデータ分布は濃度パラメータとしてパラメータ化され、スペクトル クラスタリングを使用してグループ化され、ディリクレ分布が事前分布として機能します。
一般化ギャップと収束率の調査により、マッチングベースのアルゴリズムによるサブチャネル割り当ての設計が導き出され、電力割り当ては、導出された閉形式の解を使用した Karush-Kuhn-Tucker (KKT) 条件によって実現されます。
広範なシミュレーション結果は、提案されたクラスターベースの FL フレームワークが、テスト精度と収束率の両方の点で FL ベースラインを上回るパフォーマンスを発揮できることを示しています。
さらに、NOMA 強化ネットワークにおけるサブチャネルと電力の割り当てを共同で最適化すると、大幅な改善につながる可能性があります。

要約(オリジナル)

This study explores the benefits of integrating the novel clustered federated learning (CFL) approach with non-orthogonal multiple access (NOMA) under non-independent and identically distributed (non-IID) datasets, where multiple devices participate in the aggregation with time limitations and a finite number of sub-channels. A detailed theoretical analysis of the generalization gap that measures the degree of non-IID in the data distribution is presented. Following that, solutions to address the challenges posed by non-IID conditions are proposed with the analysis of the properties. Specifically, users’ data distributions are parameterized as concentration parameters and grouped using spectral clustering, with Dirichlet distribution serving as the prior. The investigation into the generalization gap and convergence rate guides the design of sub-channel assignments through the matching-based algorithm, and the power allocation is achieved by Karush-Kuhn-Tucker (KKT) conditions with the derived closed-form solution. The extensive simulation results show that the proposed cluster-based FL framework can outperform FL baselines in terms of both test accuracy and convergence rate. Moreover, jointly optimizing sub-channel and power allocation in NOMA-enhanced networks can lead to a significant improvement.

arxiv情報

著者 Yushen Lin,Kaidi Wang,Zhiguo Ding
発行日 2024-03-05 17:49:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, cs.NI, math.IT パーマリンク