要約
グラジエント圧縮は、連邦学習(FL)の通信コストを削減するための効果的な手法であり、通常、圧縮エラーを改善するためにエラーフィードバック(EF)が採用されます。
ただし、非同期FLのこれらの手法に関する体系的な研究が不足しています。
この論文では、さまざまなフレームワークの下でFLの収束挙動を分析することにより、このギャップを埋めます。
まず、基本的な非同期FLフレームワークASYNFLを検討し、より少ない仮定に依存し、以前の研究よりも優れた収束率を生成する改善された収束分析を提供します。
次に、勾配圧縮Asynflcを備えたバリアントフレームワークを検討します。
非同期遅延と圧縮速度との相互作用を示していることを示す最適なものへの収束に十分な条件を示します。
また、私たちの分析は、非同期遅延が圧縮によって引き起こされる分散を増幅し、それによって収束を妨げることを示しており、そのような影響は高いデータの不均一性によって悪化します。
さらに、EFをさらに統合するフレームワークであるAsynflc-EFの収束を研究します。
非同期遅延にもかかわらず、EFは勾配推定の分散を効果的に減らすことができることを証明します。これにより、Asynflc-EFはASYNFLの収束速度と一致する可能性があります。
また、EFに対する非同期遅延の影響は、高次の収束項を遅くすることに限定されていることを示しています。
実験結果は、分析結果を非常によく実証しています。
要約(オリジナル)
Gradient compression is an effective technique for reducing communication costs in federated learning (FL), and error feedback (EF) is usually adopted to remedy the compression errors. However, there remains a lack of systematic study on these techniques in asynchronous FL. In this paper, we fill this gap by analyzing the convergence behaviors of FL under different frameworks. We firstly consider a basic asynchronous FL framework AsynFL, and provide an improved convergence analysis that relies on fewer assumptions and yields a superior convergence rate than prior studies. Then, we consider a variant framework with gradient compression, AsynFLC. We show sufficient conditions for its convergence to the optimum, indicating the interaction between asynchronous delay and compression rate. Our analysis also demonstrates that asynchronous delay amplifies the variance caused by compression, thereby hindering convergence, and such an impact is exacerbated by high data heterogeneity. Furthermore, we study the convergence of AsynFLC-EF, the framework that further integrates EF. We prove that EF can effectively reduce the variance of gradient estimation despite asynchronous delay, which enables AsynFLC-EF to match the convergence rate of AsynFL. We also show that the impact of asynchronous delay on EF is limited to slowing down the higher-order convergence term. Experimental results substantiate our analytical findings very well.
arxiv情報
著者 | Diying Yang,Yingwei Hou,Danyang Xiao,Weigang Wu |
発行日 | 2025-04-28 15:35:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google