Two-Timescale Gradient Descent Ascent Algorithms for Nonconvex Minimax Optimization

要約

$ \ min_ \ textbf {x} \ max _ {\ textbf {y} \ in y} f(\ textbffff(\ textbfffff(\ textbffff)の形式で構造化された非凸最小限の最適化問題を解決するための2倍勾配勾配降下昇天(TTGDA)の統一分析を提供します。
{x}、\ textbf {y})$、ここで、対物的関数$ f(\ textbf {x}、\ textbf {y})$は$ \ textbf {x} $でconvexであり、$ \ textbf {yでconcaveです
} $、および制約セット$ y \ subseteq \ mathbb {r}^n $は凸で境界があります。
凸型コンケーブ設定では、単一タイムスケール勾配降下昇天(GDA)アルゴリズムがアプリケーションで広く使用されており、強力な収束保証があることが示されています。
ただし、より一般的な設定では、収束に失敗する可能性があります。
私たちの貢献は、凸面コンケーブ設定を超えて効果的なTTGDAアルゴリズムを設計し、関数$ \ phi(\ cdot)の固定点を効率的に見つけることです。
、\ textbf {y})$。
また、滑らかで滑らかでない両方の非凸環境最適化問題を解く複雑さに関する理論的境界を確立します。
私たちの知る限り、これは非凸のミニマックス最適化のためのTTGDAの最初の体系的な分析であり、生成敵対的ネットワーク(GANS)のトレーニングにおける優れたパフォーマンスに光を当て、その他の現実世界のアプリケーションの問題に陥ります。

要約(オリジナル)

We provide a unified analysis of two-timescale gradient descent ascent (TTGDA) for solving structured nonconvex minimax optimization problems in the form of $\min_\textbf{x} \max_{\textbf{y} \in Y} f(\textbf{x}, \textbf{y})$, where the objective function $f(\textbf{x}, \textbf{y})$ is nonconvex in $\textbf{x}$ and concave in $\textbf{y}$, and the constraint set $Y \subseteq \mathbb{R}^n$ is convex and bounded. In the convex-concave setting, the single-timescale gradient descent ascent (GDA) algorithm is widely used in applications and has been shown to have strong convergence guarantees. In more general settings, however, it can fail to converge. Our contribution is to design TTGDA algorithms that are effective beyond the convex-concave setting, efficiently finding a stationary point of the function $\Phi(\cdot) := \max_{\textbf{y} \in Y} f(\cdot, \textbf{y})$. We also establish theoretical bounds on the complexity of solving both smooth and nonsmooth nonconvex-concave minimax optimization problems. To the best of our knowledge, this is the first systematic analysis of TTGDA for nonconvex minimax optimization, shedding light on its superior performance in training generative adversarial networks (GANs) and in other real-world application problems.

arxiv情報

著者 Tianyi Lin,Chi Jin,Michael. I. Jordan
発行日 2025-01-27 18:37:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC パーマリンク