Online Convex Optimization with a Separation Oracle

要約

この論文では、分離ベースのアルゴリズムの中で最先端のリグアランス保証を備えた、オンライン凸最適化 (OCO) のための新しい投影フリー アルゴリズムを紹介します。
古典的な Frank-Wolfe アルゴリズムに基づく既存の射影のない手法では、次善のリグレス限界 $O(T^{3/4})$ が達成されますが、より最近の分離ベースのアプローチでは $O(\kappa \ のリグレス限界が保証されています)
sqrt{T})$、ここで $\kappa$ は実現可能なセットの非球面度を示し、包含ボールと包含ボールの半径の比として定義されます。
ただし、条件の悪いセットの場合、$\kappa$ が任意に大きくなり、パフォーマンスの低下につながる可能性があります。
私たちのアルゴリズムは $\widetilde{O}(\sqrt{dT} + \kappa d)$ のリグレス限界を達成しますが、ラウンドごとに分離オラクルへの $\widetilde{O}(1)$ 呼び出しのみを必要とします。
重要なのは、範囲内の主項 $\widetilde{O}(\sqrt{d T})$ が $\kappa$ から独立しており、以前の方法の制限に対処していることです。
さらに、分析の副産物として、より単純な分析により既存の OCO アルゴリズムの $O(\kappa \sqrt{T})$ リグレス限界を回復し、射影のないオンライン exp-concave のリグアロング限界を改善しました。
最適化。
最後に、制約付き確率的凸最適化では、$\widetilde{O}(\sigma/\sqrt{T} + \kappa d/T)$ という最先端の収束率を達成します。ここで、$\sigma$
は確率的勾配のノイズを表しますが、反復ごとに分離オラクルへの $\widetilde{O}(1)$ 呼び出しのみが必要です。

要約(オリジナル)

In this paper, we introduce a new projection-free algorithm for Online Convex Optimization (OCO) with a state-of-the-art regret guarantee among separation-based algorithms. Existing projection-free methods based on the classical Frank-Wolfe algorithm achieve a suboptimal regret bound of $O(T^{3/4})$, while more recent separation-based approaches guarantee a regret bound of $O(\kappa \sqrt{T})$, where $\kappa$ denotes the asphericity of the feasible set, defined as the ratio of the radii of the containing and contained balls. However, for ill-conditioned sets, $\kappa$ can be arbitrarily large, potentially leading to poor performance. Our algorithm achieves a regret bound of $\widetilde{O}(\sqrt{dT} + \kappa d)$, while requiring only $\widetilde{O}(1)$ calls to a separation oracle per round. Crucially, the main term in the bound, $\widetilde{O}(\sqrt{d T})$, is independent of $\kappa$, addressing the limitations of previous methods. Additionally, as a by-product of our analysis, we recover the $O(\kappa \sqrt{T})$ regret bound of existing OCO algorithms with a more straightforward analysis and improve the regret bound for projection-free online exp-concave optimization. Finally, for constrained stochastic convex optimization, we achieve a state-of-the-art convergence rate of $\widetilde{O}(\sigma/\sqrt{T} + \kappa d/T)$, where $\sigma$ represents the noise in the stochastic gradients, while requiring only $\widetilde{O}(1)$ calls to a separation oracle per iteration.

arxiv情報

著者 Zakaria Mhammedi
発行日 2024-10-07 17:15:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC パーマリンク