Near-Optimal Decentralized Momentum Method for Nonconvex-PL Minimax Problems

要約

タイトル:分散アルゴリズムにおけるNear-Optimal Decentralized Momentum Method for Nonconvex-PL Minimax Problems(非凸PL minimax問題のための近似最適分散運動量法)

要約:

– Minimax最適化は、生成的対立ネットワーク(GAN)やアドバーサルトレーニングなど、多くの機械学習タスクで重要な役割を果たす。
– 分散環境でデータが複数のワーカーに分散している場合、最小化最大化問題を解決するための最適化手法は、最近広く提案されてきているが、その多くは無視されてきた。
– 一方、既存の分散最小最大最適化手法は、(強)凸性と変分不等式条件などの厳密な仮定に依存している。
– したがって、本論文では、非凸PL minimax最適化のための効率的な分散運動量ベースの勾配降下上昇(DM-GDA)法を提案する。
– DM-GDA法は、主変数が非凸で、双対変数が非凸でPolyak-Lojasiewicz(PL)条件を満たす問題に適用される。同時に、DM-GDA法では、運動量を基盤とした技術が変数の更新と確率勾配の推定に使用されている。
– DM-GDA法については、収束分析が提供され、非凸PL stochasic minimax問題のe-停止解を見つけるための接近最適勾配複雑度O(e ̄-3)を獲得し、非凸ストキャスティック最適化の下限に達することが証明されている。
– 分散環境下でのNonconvex-PL stochastic minimax最適化に関する分散アルゴリズムの研究は、本論文が初めてである。

要約(オリジナル)

Minimax optimization plays an important role in many machine learning tasks such as generative adversarial networks (GANs) and adversarial training. Although recently a wide variety of optimization methods have been proposed to solve the minimax problems, most of them ignore the distributed setting where the data is distributed on multiple workers. Meanwhile, the existing decentralized minimax optimization methods rely on the strictly assumptions such as (strongly) concavity and variational inequality conditions. In the paper, thus, we propose an efficient decentralized momentum-based gradient descent ascent (DM-GDA) method for the distributed nonconvex-PL minimax optimization, which is nonconvex in primal variable and is nonconcave in dual variable and satisfies the Polyak-Lojasiewicz (PL) condition. In particular, our DM-GDA method simultaneously uses the momentum-based techniques to update variables and estimate the stochastic gradients. Moreover, we provide a solid convergence analysis for our DM-GDA method, and prove that it obtains a near-optimal gradient complexity of $O(\epsilon^{-3})$ for finding an $\epsilon$-stationary solution of the nonconvex-PL stochastic minimax problems, which reaches the lower bound of nonconvex stochastic optimization. To the best of our knowledge, we first study the decentralized algorithm for Nonconvex-PL stochastic minimax optimization over a network.

arxiv情報

著者 Feihu Huang,Songcan Chen
発行日 2023-04-21 11:38:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, math.OC パーマリンク