Stochastic Compositional Minimax Optimization with Provable Convergence Guarantees

要約

確率的構成ミニマックス問題は機械学習で広く普及していますが、このクラスの問題の収束に関して確立されたものは限られています。
この論文では、確率的組成ミニマックス問題の正式な定義を提案します。これには、主変数、双対変数、または主変数と双対変数の両方の組成構造によるミニマックス損失の最適化が含まれます。
我々は、シンプルかつ効果的なアルゴリズムである確率的補正確率勾配降下上昇 (CODA) を導入します。これは、組成補正ステップを備えた降下上昇型アルゴリズムであり、前述の 3 つの設定でその収束率を確立します。
プライマルに合成構造が存在する場合、目的関数は通常、関数の合成によりプライマルで非凸になります。
したがって、非凸-強凹および非凸-凹の設定を考慮し、CODA が効率的に静止点に収束できることを示します。
双対上の合成の場合、目的関数は双対変数で非凹となり、強い凸-非凹および凸-非凹の設定で収束することを示します。
両方の変数の合成の場合、主変数と双対変数はそれぞれ凸性と凹性を失う可能性があります。
したがって、弱凸-弱凹設定における収束を分析します。
また、分散削減バージョン アルゴリズム CODA+ も提供します。これは、非凸-強凹および非凸-凹の組成ミニマックス問題で最もよく知られているレートを達成します。
この研究は、さまざまな設定における確率的構成ミニマックス問題の理論的研究を開始し、ドメイン適応や堅牢なモデルに依存しないメタ学習などの最新の機械学習シナリオに情報を提供する可能性があります。

要約(オリジナル)

Stochastic compositional minimax problems are prevalent in machine learning, yet there are only limited established on the convergence of this class of problems. In this paper, we propose a formal definition of the stochastic compositional minimax problem, which involves optimizing a minimax loss with a compositional structure either in primal , dual, or both primal and dual variables. We introduce a simple yet effective algorithm, stochastically Corrected stOchastic gradient Descent Ascent (CODA), which is a descent ascent type algorithm with compositional correction steps, and establish its convergence rate in aforementioned three settings. In the presence of the compositional structure in primal, the objective function typically becomes nonconvex in primal due to function composition. Thus, we consider the nonconvex-strongly-concave and nonconvex-concave settings and show that CODA can efficiently converge to a stationary point. In the case of composition on the dual, the objective function becomes nonconcave in the dual variable, and we demonstrate convergence in the strongly-convex-nonconcave and convex-nonconcave setting. In the case of composition on both variables, the primal and dual variables may lose convexity and concavity, respectively. Therefore, we anaylze the convergence in weakly-convex-weakly-concave setting. We also give a variance reduction version algorithm, CODA+, which achieves the best known rate on nonconvex-strongly-concave and nonconvex-concave compositional minimax problem. This work initiates the theoretical study of the stochastic compositional minimax problem on various settings and may inform modern machine learning scenarios such as domain adaptation or robust model-agnostic meta-learning.

arxiv情報

著者 Yuyang Deng,Fuli Qiao,Mehrdad Mahdavi
発行日 2024-08-22 16:00:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC パーマリンク