要約
非線形等式制約を伴う連続最適化問題を解くための確率的逐次二次最適化 (SQP) 手法は、非凸制約を受ける大規模なデータフィッティング問題を解くためなど、最近注目を集めています。
しかし、最近提案された、制約のない設定からの一般的な確率勾配法に基づいて構築されたこのような手法のサブクラスでは、収束の保証は、定常性測度の期待値がゼロに漸近収束することに限定されていました。
これは、確率的勾配ベースの方法でほぼ確実な収束保証 (目的のゼロへの勾配) を証明できる制約なし設定とは対照的です。
この論文では、このサブクラスの方法における確率的 SQP アルゴリズムによって生成される主反復、ラグランジュ乗数、および定常性測定に対する新しいほぼ確実な収束保証を証明します。
ラグランジュ乗数の誤差は、主定常点までの主反復の距離と最新の確率的勾配推定の誤差を加えたものによって制限される可能性があることが示されています。
さらに、特定の仮定の下で、この後者の誤差は、アルゴリズムの実行中に計算されるラグランジュ乗数の移動平均を使用することによって消滅させることができることが示されています。
数値実験の結果は、証明された理論的保証を実証するために提供されます。
要約(オリジナル)
Stochastic sequential quadratic optimization (SQP) methods for solving continuous optimization problems with nonlinear equality constraints have attracted attention recently, such as for solving large-scale data-fitting problems subject to nonconvex constraints. However, for a recently proposed subclass of such methods that is built on the popular stochastic-gradient methodology from the unconstrained setting, convergence guarantees have been limited to the asymptotic convergence of the expected value of a stationarity measure to zero. This is in contrast to the unconstrained setting in which almost-sure convergence guarantees (of the gradient of the objective to zero) can be proved for stochastic-gradient-based methods. In this paper, new almost-sure convergence guarantees for the primal iterates, Lagrange multipliers, and stationarity measures generated by a stochastic SQP algorithm in this subclass of methods are proved. It is shown that the error in the Lagrange multipliers can be bounded by the distance of the primal iterate to a primal stationary point plus the error in the latest stochastic gradient estimate. It is further shown that, subject to certain assumptions, this latter error can be made to vanish by employing a running average of the Lagrange multipliers that are computed during the run of the algorithm. The results of numerical experiments are provided to demonstrate the proved theoretical guarantees.
arxiv情報
| 著者 | Frank E. Curtis,Xin Jiang,Qi Wang |
| 発行日 | 2023-08-07 16:03:40+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google