A Communication-efficient Algorithm with Linear Convergence for Federated Minimax Learning

要約

この論文では、敵対的生成ネットワーク (GAN) を含む、統計学習やゲーム理論における多くの興味深いアプリケーションをモデル化する、大規模なマルチエージェント ミニマックス最適化問題を研究します。
全体的な目的は、エージェントのプライベートなローカル目的関数の合計です。
まず、重要な特殊なケースである経験的ミニマックス問題を分析します。この問題では、全体的な目的は、統計サンプルによって真の母集団ミニマックス リスクを近似します。
Rademacher の複雑さの分析を通じて、この目的で学習するための一般化限界を提供します。
次に、エージェントがローカル計算を実行し、中央サーバーと通信できるフェデレーション設定に焦点を当てます。
既存のフェデレーテッド ミニマックス アルゴリズムのほとんどは、反復ごとに通信を必要とするか、パフォーマンスが保証されていません。 ただし、ローカル確率的勾配降下上昇 (SGDA) は例外です。ローカル確率的勾配降下上昇 (SGDA) は、減少するステップサイズでの収束を保証する複数のローカル更新による降下上昇アルゴリズムです。
勾配ノイズのない理想的な条件下でローカル SGDA を分析することにより、一般に一定のステップサイズでの正確な収束を保証できず、したがって収束速度が遅くなることがわかります。
この問題に取り組むために、我々は、勾配追跡 (GT) に基づいて改良された Federated (Fed) 勾配降下上昇 (GDA) 手法である FedGDA-GT を提案します。
ローカル目標がリプシッツ滑らかで、強凸-強凹である場合、FedGDA-GT が $\mathcal{O}(\log (1/\
epsilon))$ 回の通信。これは集中型 GDA 方式の時間計算量と一致します。
最後に、FedGDA-GT が Local SGDA よりも優れていることを数値的に示します。

要約(オリジナル)

In this paper, we study a large-scale multi-agent minimax optimization problem, which models many interesting applications in statistical learning and game theory, including Generative Adversarial Networks (GANs). The overall objective is a sum of agents’ private local objective functions. We first analyze an important special case, empirical minimax problem, where the overall objective approximates a true population minimax risk by statistical samples. We provide generalization bounds for learning with this objective through Rademacher complexity analysis. Then, we focus on the federated setting, where agents can perform local computation and communicate with a central server. Most existing federated minimax algorithms either require communication per iteration or lack performance guarantees with the exception of Local Stochastic Gradient Descent Ascent (SGDA), a multiple-local-update descent ascent algorithm which guarantees convergence under a diminishing stepsize. By analyzing Local SGDA under the ideal condition of no gradient noise, we show that generally it cannot guarantee exact convergence with constant stepsizes and thus suffers from slow rates of convergence. To tackle this issue, we propose FedGDA-GT, an improved Federated (Fed) Gradient Descent Ascent (GDA) method based on Gradient Tracking (GT). When local objectives are Lipschitz smooth and strongly-convex-strongly-concave, we prove that FedGDA-GT converges linearly with a constant stepsize to global $\epsilon$-approximation solution with $\mathcal{O}(\log (1/\epsilon))$ rounds of communication, which matches the time complexity of centralized GDA method. Finally, we numerically show that FedGDA-GT outperforms Local SGDA.

arxiv情報

著者 Zhenyu Sun,Ermin Wei
発行日 2023-06-06 16:17:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG パーマリンク