Variance Reduced Halpern Iteration for Finite-Sum Monotone Inclusions

要約

敵対的な堅牢性やマルチエージェント設定などの基準に依存する機械学習アプローチでは、ゲーム理論の均衡問題を解決する必要性が高まっています。
これらのアプリケーションに特に関連するのは、有限和構造をターゲットとする方法であり、これは一般に、これらの状況における学習問題の経験的変形で発生します。
さらに、計算可能な近似誤差を伴う方法は、検証可能な終了基準を提供するため、非常に望ましいです。
これらの応用を動機として、私たちは、広範なクラスの平衡問題をモデル化する有限和単調包含問題を研究します。
私たちの主な貢献は、分散削減を使用して複雑さの保証を改善する古典的なハルパーン反復の変形です。この変形では、パラメータ $L$ を使用して、有限和内の $n$ 成分演算子が「平均して」保磁力またはリプシッツ連続で単調になります。

私たちのメソッドの結果として得られるオラクル複雑度は、最後の反復と (計算可能な) 演算子ノルム残差の保証を提供し、 $\widetilde{\mathcal{O}}( n + \sqrt{n}L\varepsilon^{-
1})$、既存のメソッドを $\sqrt{n}$ まで改善します。
これは、一般的な有限和単調包含物、および演算子ノルム残差が最適性尺度である場合の凸凹最適化などのより具体的な問題に対する最初の分散削減タイプの結果を構成します。
さらに、多対数因数までは、単調なリプシッツ設定ではこの複雑さは改善できないと主張します。
つまり、提供される結果は最適に近いものになります。

要約(オリジナル)

Machine learning approaches relying on such criteria as adversarial robustness or multi-agent settings have raised the need for solving game-theoretic equilibrium problems. Of particular relevance to these applications are methods targeting finite-sum structure, which generically arises in empirical variants of learning problems in these contexts. Further, methods with computable approximation errors are highly desirable, as they provide verifiable exit criteria. Motivated by these applications, we study finite-sum monotone inclusion problems, which model broad classes of equilibrium problems. Our main contributions are variants of the classical Halpern iteration that employ variance reduction to obtain improved complexity guarantees in which $n$ component operators in the finite sum are “on average” either cocoercive or Lipschitz continuous and monotone, with parameter $L$. The resulting oracle complexity of our methods, which provide guarantees for the last iterate and for a (computable) operator norm residual, is $\widetilde{\mathcal{O}}( n + \sqrt{n}L\varepsilon^{-1})$, which improves upon existing methods by a factor up to $\sqrt{n}$. This constitutes the first variance reduction-type result for general finite-sum monotone inclusions and for more specific problems such as convex-concave optimization when operator norm residual is the optimality measure. We further argue that, up to poly-logarithmic factors, this complexity is unimprovable in the monotone Lipschitz setting; i.e., the provided result is near-optimal.

arxiv情報

著者 Xufeng Cai,Ahmet Alacaoglu,Jelena Diakonikolas
発行日 2023-10-04 17:24:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC パーマリンク