Improved Convergence Analysis and SNR Control Strategies for Federated Learning in the Presence of Noise

要約

不完全/ノイズの多いアップリンクおよびダウンリンク通信を伴うフェデレーテッド ラーニング (FL) の分散学習パラダイムを特徴付ける、改良された収束分析手法を提案します。
このような不完全な通信シナリオは、新興の通信システムおよびプロトコルで FL を実際に導入する際に発生します。
この論文で開発された分析は、フロリダ州におけるアップリンク通信とダウンリンク通信の悪影響に非対称性があることを初めて実証しました。
特に、ダウンリンク ノイズの悪影響は、FL アルゴリズムの収束に対してより深刻です。
この洞察を使用して、無視できる高次項を破棄して、完全でノイズのない通信チャネルの場合と同様の FL の収束率をもたらす、改善された信号対ノイズ (SNR) 制御戦略を提案します。
既存のソリューションと比較して電力リソースが大幅に削減されます。
特に、ノイズのない FL の場合のように $O(\frac{1}{\sqrt{K}})$ の収束率を維持するには、アップリンクとダウンリンクのノイズを次のようにスケールダウンする必要があることを確立します。
それぞれ $\Omega({\sqrt{k}})$ と $\Omega({k})$ です。$k$ は通信ラウンド、$k=1,\dots, K$ を示します。
私たちの理論的結果は、2 つの主要な利点によってさらに特徴付けられます。第 1 に、制限されたクライアントの非類似性というやや非現実的な仮定を想定していないこと、第 2 に、必要とするのは、最新の機械学習と深層学習に適した関数クラスである滑らかな非凸損失関数のみであることです。
学習モデル。
また、理論的発見の妥当性を検証するために広範な実証分析も実行します。

要約(オリジナル)

We propose an improved convergence analysis technique that characterizes the distributed learning paradigm of federated learning (FL) with imperfect/noisy uplink and downlink communications. Such imperfect communication scenarios arise in the practical deployment of FL in emerging communication systems and protocols. The analysis developed in this paper demonstrates, for the first time, that there is an asymmetry in the detrimental effects of uplink and downlink communications in FL. In particular, the adverse effect of the downlink noise is more severe on the convergence of FL algorithms. Using this insight, we propose improved Signal-to-Noise (SNR) control strategies that, discarding the negligible higher-order terms, lead to a similar convergence rate for FL as in the case of a perfect, noise-free communication channel while incurring significantly less power resources compared to existing solutions. In particular, we establish that to maintain the $O(\frac{1}{\sqrt{K}})$ rate of convergence like in the case of noise-free FL, we need to scale down the uplink and downlink noise by $\Omega({\sqrt{k}})$ and $\Omega({k})$ respectively, where $k$ denotes the communication round, $k=1,\dots, K$. Our theoretical result is further characterized by two major benefits: firstly, it does not assume the somewhat unrealistic assumption of bounded client dissimilarity, and secondly, it only requires smooth non-convex loss functions, a function class better suited for modern machine learning and deep learning models. We also perform extensive empirical analysis to verify the validity of our theoretical findings.

arxiv情報

著者 Antesh Upadhyay,Abolfazl Hashemi
発行日 2023-07-14 15:35:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, eess.SP, math.IT パーマリンク