Mobility-Aware Joint User Scheduling and Resource Allocation for Low Latency Federated Learning

要約

効率的な分散機械学習アプローチとして、フェデレーテッド ラーニング (FL) は、ユーザー側でローカル モデルを反復トレーニングし、中央サーバー側でグローバル モデルを集約することで共有モデルを取得し、ユーザーのプライバシーを保護します。
FL システムのモバイル ユーザーは通常、ワイヤレス チャネルを介して基地局 (BS) と通信しますが、ユーザーの移動によって生じるアクセスの信頼性が低いため、トレーニング パフォーマンスが低下する可能性があります。
ただし、既存の研究では静的なシナリオまたはユーザーの位置のランダムな初期化のみが調査されており、現実世界のネットワークでのモビリティを捉えることはできません。
この問題に取り組むために、我々は複数のBSにわたるFLにおけるユーザーモビリティの実用的なモデルを提案し、制約された通信リソースでのトレーニング遅延を最小限に抑えるためのユーザースケジューリングとリソース割り当て方法を開発します。
具体的には、最初に、ユーザーの選択、ユーザーへの BS の割り当て、各通信ラウンドの遅延を最小限に抑えるための帯域幅の割り当てを共同で考慮するユーザー モビリティに関する最適化問題を定式化します。
この最適化問題は NP 困難であることが判明し、それを解決するために遅延を考慮した貪欲探索アルゴリズム (DAGSA) を提案しました。
シミュレーション結果は、提案されたアルゴリズムが最先端のベースラインよりも優れたパフォーマンスを達成し、一定レベルのユーザーのモビリティがトレーニングのパフォーマンスを向上させる可能性があることを示しています。

要約(オリジナル)

As an efficient distributed machine learning approach, Federated learning (FL) can obtain a shared model by iterative local model training at the user side and global model aggregating at the central server side, thereby protecting privacy of users. Mobile users in FL systems typically communicate with base stations (BSs) via wireless channels, where training performance could be degraded due to unreliable access caused by user mobility. However, existing work only investigates a static scenario or random initialization of user locations, which fail to capture mobility in real-world networks. To tackle this issue, we propose a practical model for user mobility in FL across multiple BSs, and develop a user scheduling and resource allocation method to minimize the training delay with constrained communication resources. Specifically, we first formulate an optimization problem with user mobility that jointly considers user selection, BS assignment to users, and bandwidth allocation to minimize the latency in each communication round. This optimization problem turned out to be NP-hard and we proposed a delay-aware greedy search algorithm (DAGSA) to solve it. Simulation results show that the proposed algorithm achieves better performance than the state-of-the-art baselines and a certain level of user mobility could improve training performance.

arxiv情報

著者 Kecheng Fan,Wen Chen,Jun Li,Xiumei Deng,Xuefeng Han,Ming Ding
発行日 2023-07-18 13:48:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG パーマリンク