A Gradient Smoothed Functional Algorithm with Truncated Cauchy Random Perturbations for Stochastic Optimization

要約

この論文では、ノイズの多いコスト サンプルに対する期待値である滑らかな目的関数を最小化するための確率的勾配アルゴリズムを紹介します。任意のパラメーターに対して後者のみが観察されます。
私たちのアルゴリズムは、デルタ球からの切り取られたコーシー分布を使用して形成されるランダムな摂動を伴う勾配推定スキームを採用しています。
提案された勾配推定量のバイアスと分散を分析します。
私たちのアルゴリズムは、目的関数が非凸であり、パラメーターの次元が高い場合に特に有用であることがわかります。
漸近収束解析から、アルゴリズムが目的関数の一連の静止点にほぼ確実に収束し、漸近収束率が得られることを確立します。
また、アルゴリズムが不安定な平衡を回避し、極小値への収束を意味することも示します。
さらに、アルゴリズムの非漸近収束解析を実行します。
特に、ここでは、非凸目的関数のイプシロン定常点を見つけるための非漸近限界を確立します。
最後に、シミュレーションを通じて、アルゴリズムのパフォーマンスがいくつかの非凸設定で GSF、SPSA、および RDSA よりも大幅に優れていることを数値的に示し、凸 (ノイズの多い) 目的でのパフォーマンスをさらに検証します。

要約(オリジナル)

In this paper, we present a stochastic gradient algorithm for minimizing a smooth objective function that is an expectation over noisy cost samples, and only the latter are observed for any given parameter. Our algorithm employs a gradient estimation scheme with random perturbations, which are formed using the truncated Cauchy distribution from the delta sphere. We analyze the bias and variance of the proposed gradient estimator. Our algorithm is found to be particularly useful in the case when the objective function is non-convex, and the parameter dimension is high. From an asymptotic convergence analysis, we establish that our algorithm converges almost surely to the set of stationary points of the objective function and obtains the asymptotic convergence rate. We also show that our algorithm avoids unstable equilibria, implying convergence to local minima. Further, we perform a non-asymptotic convergence analysis of our algorithm. In particular, we establish here a non-asymptotic bound for finding an epsilon-stationary point of the non-convex objective function. Finally, we demonstrate numerically through simulations that the performance of our algorithm outperforms GSF, SPSA, and RDSA by a significant margin over a few non-convex settings and further validate its performance over convex (noisy) objectives.

arxiv情報

著者 Akash Mondal,Prashanth L. A.,Shalabh Bhatnagar
発行日 2023-06-26 16:04:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC パーマリンク