要約
近年、通信効率を高めることができる空中連合学習(FL)が注目を集めている。しかし、無線FLの性能は、デバイス選択戦略や信号集約エラーによって制約を受けることが多い。特に、FLにおいてはぐれデバイスを無視すると、モデル更新の公平性が低下し、グローバルモデルの特定のデバイスのデータへの偏りが増幅され、最終的にシステム全体の性能に影響を与える可能性がある。この問題に対処するため、我々は、はぐれデバイスの適切な参加を保証し、効率的なトレーニング性能を維持し、タイムリーな更新を保証する、デバイスの選択と送信電力の最適化を組み合わせたフレームワークを提案する。まず、AoI(age-of-information)ベースのデバイス選択における無線FLの収束上限を定量化するための理論的分析を行う。さらに、この分析により、選択されたデバイスの数と信号の集約誤差の両方が収束上限に大きく影響することが明らかになった。期待される加重和ピーク情報年齢を最小化するために、我々は各通信ラウンドのデバイスの優先順位をリアプノフ最適化を用いて計算し、貪欲なアルゴリズムによって最も優先順位の高いデバイスを選択する。次に、時間平均平均二乗誤差(MSE)を最小化するために、選択されたデバイスの送信電力と正規化係数の最適化問題を定式化して解く。(2)十分な適時性を維持しながら、公平性と訓練効率のバランスを取り、安定したモデル性能を保証する。
要約(オリジナル)
Recently, over-the-air federated learning (FL) has attracted significant attention for its ability to enhance communication efficiency. However, the performance of over-the-air FL is often constrained by device selection strategies and signal aggregation errors. In particular, neglecting straggler devices in FL can lead to a decline in the fairness of model updates and amplify the global model’s bias toward certain devices’ data, ultimately impacting the overall system performance. To address this issue, we propose a joint device selection and transmit power optimization framework that ensures the appropriate participation of straggler devices, maintains efficient training performance, and guarantees timely updates. First, we conduct a theoretical analysis to quantify the convergence upper bound of over-the-air FL under age-of-information (AoI)-based device selection. Our analysis further reveals that both the number of selected devices and the signal aggregation errors significantly influence the convergence upper bound. To minimize the expected weighted sum peak age of information, we calculate device priorities for each communication round using Lyapunov optimization and select the highest-priority devices via a greedy algorithm. Then, we formulate and solve a transmit power and normalizing factor optimization problem for selected devices to minimize the time-average mean squared error (MSE). Experimental results demonstrate that our proposed method offers two significant advantages: (1) it reduces MSE and improves model performance compared to baseline methods, and (2) it strikes a balance between fairness and training efficiency while maintaining satisfactory timeliness, ensuring stable model performance.
arxiv情報
著者 | Jingyuan Liu,Zheng Chang,Ying-Chang Liang |
発行日 | 2025-01-03 14:27:13+00:00 |
arxivサイト | arxiv_id(pdf) |