要約
確率的 2 次法は、勾配を事前調整するためにノイズの多いヘシアン推定を使用することにより、強凸最適化で高速な局所収束を実現します。
ただし、これらの方法は通常、確率的ヘシアン ノイズが減少する場合にのみ超線形収束に達し、時間の経過とともに反復あたりのコストが増加します。
[arXiv:2204.09266] の最近の研究では、反復ごとのコストを高くすることなく超線形収束を達成するヘッセ平均化スキームを使用してこの問題に対処しました。
それにもかかわらず、この方法は全体的な収束が遅く、$\tilde{O}((1/t)^{t/2} の超線形レートに達するまでに最大 $\tilde{O}(\kappa^2)$ 回の反復が必要です。
)$、$\kappa$ は問題の条件番号です。
この論文では、これらの境界を改善し、より高速なグローバル線形速度を達成し、 $\tilde{O}(\kappa)$ 反復で同じ高速超線形速度に到達する、新しい確率的ニュートン近接超線形法を提案します。
これは、Hybrid Proximal Extragradient (HPE) フレームワークを拡張し、ノイズの多いヘッシアン オラクルにアクセスして、強凸関数のグローバルおよびローカルの高速収束速度を達成することで実現します。
要約(オリジナル)
Stochastic second-order methods achieve fast local convergence in strongly convex optimization by using noisy Hessian estimates to precondition the gradient. However, these methods typically reach superlinear convergence only when the stochastic Hessian noise diminishes, increasing per-iteration costs over time. Recent work in [arXiv:2204.09266] addressed this with a Hessian averaging scheme that achieves superlinear convergence without higher per-iteration costs. Nonetheless, the method has slow global convergence, requiring up to $\tilde{O}(\kappa^2)$ iterations to reach the superlinear rate of $\tilde{O}((1/t)^{t/2})$, where $\kappa$ is the problem’s condition number. In this paper, we propose a novel stochastic Newton proximal extragradient method that improves these bounds, achieving a faster global linear rate and reaching the same fast superlinear rate in $\tilde{O}(\kappa)$ iterations. We accomplish this by extending the Hybrid Proximal Extragradient (HPE) framework, achieving fast global and local convergence rates for strongly convex functions with access to a noisy Hessian oracle.
arxiv情報
著者 | Ruichen Jiang,Michał Dereziński,Aryan Mokhtari |
発行日 | 2024-11-11 16:37:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google