Single-Call Stochastic Extragradient Methods for Structured Non-monotone Variational Inequalities: Improved Analysis under Weaker Conditions

要約

確率的過去超勾配 (SPEG) や確率的楽観的勾配 (SOG) などの単一呼び出しの確率的超勾配法は、近年多くの関心を集めており、大規模な最小最大最適化と変分法を解くための最も効率的なアルゴリズムの 1 つです。
さまざまな機械学習タスクに現れる不等式問題 (VIP)。
ただし、疑いのない人気にもかかわらず、SPEG と SOG の現在の収束分析には、有界分散の仮定が必要です。
さらに、ミニバッチ処理、効率的なステップ サイズの選択、さまざまなサンプリング戦略での収束の保証など、これらの方法の収束特性に関するいくつかの重要な問題がまだ未解決です。
この作業では、これらの問題に対処し、構造化された非単調 VIP の 2 つの大きなクラスの収束保証を提供します。(i) 準強単調問題 (強単調問題の一般化) および (ii) 弱い Minty 変分不等式 (一般化
モノトーンとミントのVIPの)。
期待される残差条件を紹介し、その利点を説明し、それを使用して、以前に使用された成長条件、期待保磁力、または有界分散の仮定よりも厳密に弱い境界を取得する方法を示します。
この条件を備えて、定数、減少、およびステップ サイズ切り替えルールを含む、さまざまなステップ サイズの選択に対する単一呼び出しの超勾配法の収束に対する理論的な保証を提供します。
さらに、収束分析は、特別なケースとして重要度サンプリングとさまざまなミニバッチ戦略を含む、任意のサンプリングパラダイムの下で保持されます。

要約(オリジナル)

Single-call stochastic extragradient methods, like stochastic past extragradient (SPEG) and stochastic optimistic gradient (SOG), have gained a lot of interest in recent years and are one of the most efficient algorithms for solving large-scale min-max optimization and variational inequalities problems (VIP) appearing in various machine learning tasks. However, despite their undoubted popularity, current convergence analyses of SPEG and SOG require a bounded variance assumption. In addition, several important questions regarding the convergence properties of these methods are still open, including mini-batching, efficient step-size selection, and convergence guarantees under different sampling strategies. In this work, we address these questions and provide convergence guarantees for two large classes of structured non-monotone VIPs: (i) quasi-strongly monotone problems (a generalization of strongly monotone problems) and (ii) weak Minty variational inequalities (a generalization of monotone and Minty VIPs). We introduce the expected residual condition, explain its benefits, and show how it can be used to obtain a strictly weaker bound than previously used growth conditions, expected co-coercivity, or bounded variance assumptions. Equipped with this condition, we provide theoretical guarantees for the convergence of single-call extragradient methods for different step-size selections, including constant, decreasing, and step-size-switching rules. Furthermore, our convergence analysis holds under the arbitrary sampling paradigm, which includes importance sampling and various mini-batching strategies as special cases.

arxiv情報

著者 Sayantan Choudhury,Eduard Gorbunov,Nicolas Loizou
発行日 2023-02-27 18:53:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GT, cs.LG, math.OC, stat.ML パーマリンク