Global Optimization with A Power-Transformed Objective and Gaussian Smoothing

要約

我々は、大域的最適化問題を 2 つのステップで解決する新しい方法を提案します: (1) 必ずしも微分可能ではない目的関数 $f$ に対して (指数) べき乗 $N$ 変換を実行し、$f_N$ を取得します。(2) 最適化します。
確率的近似を使用してガウス平滑化された $f_N$。
$f$ の穏やかな条件下では、任意の $\delta>0$ に対して、十分に大きな検出力 $N_\delta$ があれば、この方法は $f$’ の $\delta$ 近傍の解に収束することを証明します。
s グローバル最適点。
収束率は $O(d^2\sigma^4\varepsilon^{-2})$ で、$\sigma$ が $ に含まれるように事前に選択されている場合、標準および単一ループのホモトピー法の両方よりも高速です。
(0,1)$。
実行された実験のほとんどにおいて、私たちの方法は、同様に平滑化技術を適用する他のアルゴリズムよりも優れたソリューションを生成します。

要約(オリジナル)

We propose a novel method that solves global optimization problems in two steps: (1) perform a (exponential) power-$N$ transformation to the not-necessarily differentiable objective function $f$ and get $f_N$, and (2) optimize the Gaussian-smoothed $f_N$ with stochastic approximations. Under mild conditions on $f$, for any $\delta>0$, we prove that with a sufficiently large power $N_\delta$, this method converges to a solution in the $\delta$-neighborhood of $f$’s global optimum point. The convergence rate is $O(d^2\sigma^4\varepsilon^{-2})$, which is faster than both the standard and single-loop homotopy methods if $\sigma$ is pre-selected to be in $(0,1)$. In most of the experiments performed, our method produces better solutions than other algorithms that also apply smoothing techniques.

arxiv情報

著者 Chen Xu
発行日 2024-12-23 16:15:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 65K05, 68T07, 68W40, 90C30, cs.LG, math.OC パーマリンク