Two-Timescale Gradient Descent Ascent Algorithms for Nonconvex Minimax Optimization

要約

$\min_\textbf{x} \max_{\textbf{y} \in Y} f(\textbf
{x}, \textbf{y})$、ここで目的関数 $f(\textbf{x}, \textbf{y})$ は $\textbf{x}$ では非凸であり、$\textbf{y では凹です。
}$ であり、制約セット $Y \subseteq \mathbb{R}^n$ は凸であり、有界です。
凸凹設定では、単一タイムスケールの勾配降下上昇 (GDA) アルゴリズムがアプリケーションで広く使用されており、強力な収束保証があることが示されています。
ただし、より一般的な設定では、収束に失敗する可能性があります。
私たちの貢献は、凹凸の設定を超えて効果的な TTGDA アルゴリズムを設計し、関数 $\Phi(\cdot) := \max_{\textbf{y} \in Y} f(\cdot) の静止点を効率的に見つけることです。
, \textbf{y})$。
また、滑らかなおよび滑らかでない非凸凹ミニマックス最適化問題の両方を解く複雑さの理論的限界も確立します。
私たちの知る限り、これは非凸ミニマックス最適化のための TTGDA の初めての体系的な分析であり、敵対的生成ネットワーク (GAN) のトレーニングや他の現実世界のアプリケーション問題における優れたパフォーマンスを明らかにしています。

要約(オリジナル)

We provide a unified analysis of two-timescale gradient descent ascent (TTGDA) for solving structured nonconvex minimax optimization problems in the form of $\min_\textbf{x} \max_{\textbf{y} \in Y} f(\textbf{x}, \textbf{y})$, where the objective function $f(\textbf{x}, \textbf{y})$ is nonconvex in $\textbf{x}$ and concave in $\textbf{y}$, and the constraint set $Y \subseteq \mathbb{R}^n$ is convex and bounded. In the convex-concave setting, the single-timescale gradient descent ascent (GDA) algorithm is widely used in applications and has been shown to have strong convergence guarantees. In more general settings, however, it can fail to converge. Our contribution is to design TTGDA algorithms that are effective beyond the convex-concave setting, efficiently finding a stationary point of the function $\Phi(\cdot) := \max_{\textbf{y} \in Y} f(\cdot, \textbf{y})$. We also establish theoretical bounds on the complexity of solving both smooth and nonsmooth nonconvex-concave minimax optimization problems. To the best of our knowledge, this is the first systematic analysis of TTGDA for nonconvex minimax optimization, shedding light on its superior performance in training generative adversarial networks (GANs) and in other real-world application problems.

arxiv情報

著者 Tianyi Lin,Chi Jin,Michael. I. Jordan
発行日 2024-09-26 16:48:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC パーマリンク