要約
広く使用されているいくつかの 1 次鞍点最適化手法は、単純に導出された場合には、勾配降下上昇 (GDA) 手法と同一の連続時間常微分方程式 (ODE) を生成します。
ただし、これらの方法の収束特性は、単純な双線形ゲームであっても質的に異なります。
したがって、単一目的の最適化手法の分析では強力であることが証明されている ODE パースペクティブは、鞍点最適化では同様の役割を果たしていません。
私たちは、流体力学で研究されたフレームワーク (高解像度微分方程式 (HRDE) として知られています) を採用して、いくつかの鞍点最適化手法の微分方程式モデルを設計します。
重要なことに、これらの HRDE は、さまざまな鞍点最適化手法ごとに異なります。
さらに、双線形ゲームでは、HRDE の収束特性は、対応する離散手法の定性的特徴と一致します。
さらに、楽観的勾配降下上昇 (OGDA) の HRDE が一般的な単調変分不等式に対して \emph{最終反復収束} を示すことを示します。
最後に、単調演算子の 1 次滑らかさだけに依存して、OGDA 法の \emph{best-iterate convergence} の収束率を提供します。
要約(オリジナル)
Several widely-used first-order saddle-point optimization methods yield an identical continuous-time ordinary differential equation (ODE) that is identical to that of the Gradient Descent Ascent (GDA) method when derived naively. However, the convergence properties of these methods are qualitatively different, even on simple bilinear games. Thus the ODE perspective, which has proved powerful in analyzing single-objective optimization methods, has not played a similar role in saddle-point optimization. We adopt a framework studied in fluid dynamics — known as High-Resolution Differential Equations (HRDEs) — to design differential equation models for several saddle-point optimization methods. Critically, these HRDEs are distinct for various saddle-point optimization methods. Moreover, in bilinear games, the convergence properties of the HRDEs match the qualitative features of the corresponding discrete methods. Additionally, we show that the HRDE of Optimistic Gradient Descent Ascent (OGDA) exhibits \emph{last-iterate convergence} for general monotone variational inequalities. Finally, we provide rates of convergence for the \emph{best-iterate convergence} of the OGDA method, relying solely on the first-order smoothness of the monotone operator.
arxiv情報
著者 | Tatjana Chavdarova,Michael I. Jordan,Manolis Zampetakis |
発行日 | 2023-07-31 15:12:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google