A qualitative difference between gradient flows of convex functions in finite- and infinite-dimensional Hilbert spaces

要約

凸目的関数に対する勾配流/勾配降下とヘビーボール/加速勾配降下の最適化を考慮します。
勾配流の場合、次のことを証明します。 1. $f$ にミニマイザーがない場合、$f(x_t)\to \inf f$ の収束は任意に遅くなる可能性があります。
2. $f$ に最小化機能がある場合、超過エネルギー $f(x_t) – \inf f$ は時間内に積分可能/加算可能です。
特に、$f(x_t) – \inf f = o(1/t)$ は $t\to\infty$ となります。
3. ヒルベルト空間では、これが最適です。 $f(x_t) – \inf f$ は、単調減少し、固定二次目的関数であっても $\infty$ で積分可能な任意の関数と同じくらいゆっくりと $0$ まで減衰します。
4. 有限次元 (より一般的には、有限長のすべての勾配流量曲線) では、これは最適ではありません。$f( よりも遅くゼロに減少する凸単調減少可積分関数 $g(t)$ が存在することを証明します。
$\mathbb R^d$ 上の任意の凸関数の勾配流に対する x_t)-\inf f$。
たとえば、有限次元の凸関数 $f$ の任意の勾配フロー $x_t$ が $\liminf_{t\to\infty} \big(t\cdot \log^2(t)\cdot \big を満たすことを示します。
\{f(x_t) -\inf f\big\}\big)=0$。
これは、一般的に報告されている $O(1/t)$ レートを改善し、エネルギー減衰則の明確な特徴を提供します。
また、 $\lim_{t\to\infty}\phi(t) = を満たす関数 $\phi$ に対してレート $O(1/(t\phi(t))$ を確立することは不可能であることにも注意してください。
\infty$、漸近的であっても同様の結果が、(1) 離散時間勾配降下法、(2) 乗法ノイズを伴う確率的勾配降下法、(3) ヘビーボール ODE の関連設定でも得られます。確率的勾配降下法の場合、
$\mathbb E[f(x_n) – \inf f]$ の総和可能性は、$f(x_n)\ から \inf f$ をほぼ確実に証明するために使用されます。これは、次の部分列までほぼ確実に収束が改善されます。
$O(1/n)$ の減衰推定。

要約(オリジナル)

We consider gradient flow/gradient descent and heavy ball/accelerated gradient descent optimization for convex objective functions. In the gradient flow case, we prove the following: 1. If $f$ does not have a minimizer, the convergence $f(x_t)\to \inf f$ can be arbitrarily slow. 2. If $f$ does have a minimizer, the excess energy $f(x_t) – \inf f$ is integrable/summable in time. In particular, $f(x_t) – \inf f = o(1/t)$ as $t\to\infty$. 3. In Hilbert spaces, this is optimal: $f(x_t) – \inf f$ can decay to $0$ as slowly as any given function which is monotone decreasing and integrable at $\infty$, even for a fixed quadratic objective. 4. In finite dimension (or more generally, for all gradient flow curves of finite length), this is not optimal: We prove that there are convex monotone decreasing integrable functions $g(t)$ which decrease to zero slower than $f(x_t)-\inf f$ for the gradient flow of any convex function on $\mathbb R^d$. For instance, we show that any gradient flow $x_t$ of a convex function $f$ in finite dimension satisfies $\liminf_{t\to\infty} \big(t\cdot \log^2(t)\cdot \big\{f(x_t) -\inf f\big\}\big)=0$. This improves on the commonly reported $O(1/t)$ rate and provides a sharp characterization of the energy decay law. We also note that it is impossible to establish a rate $O(1/(t\phi(t))$ for any function $\phi$ which satisfies $\lim_{t\to\infty}\phi(t) = \infty$, even asymptotically. Similar results are obtained in related settings for (1) discrete time gradient descent, (2) stochastic gradient descent with multiplicative noise and (3) the heavy ball ODE. In the case of stochastic gradient descent, the summability of $\mathbb E[f(x_n) – \inf f]$ is used to prove that $f(x_n)\to \inf f$ almost surely – an improvement on the convergence almost surely up to a subsequence which follows from the $O(1/n)$ decay estimate.

arxiv情報

著者 Jonathan W. Siegel,Stephan Wojtowytsch
発行日 2023-10-26 17:33:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 26A51, 34A34, cs.LG, cs.NA, math.CA, math.NA, math.OC, stat.ML パーマリンク