A Nonstochastic Control Approach to Optimization

要約

学習率や運動量などの特定の最適化インスタンスに最適なハイパーパラメータを選択することは、重要ではあるが非凸問題である。その結果、超勾配降下のような反復最適化手法は、一般に大域的最適性の保証を欠いている。 我々は、数理最適化のためのオンライン非確率的制御手法を提案する。まず、メタ最適化の設定を定式化する。メタ最適化とは、あるクラスの最適化手法から最適なアルゴリズムを学習するオンライン学習の定式化である。勾配に基づく手法に対するメタ最適化問題は、学習率、運動量、前処理を含むハイパーパラメータの選択に対するフィードバック制御問題として定式化することができる。 元の最適制御問題は非凸であるが、凸緩和を用いたオンライン非確率制御の最近の手法が、非凸の課題を克服し、オフラインの最適解に対する後悔保証を得るためにどのように利用できるかを示す。これにより、メタ最適化において、一連の最適化問題が与えられたとき、後から見たときに最良の最適化手法に匹敵する収束を達成する手法を、一群の手法から学習できることが保証される。

要約(オリジナル)

Selecting the best hyperparameters for a particular optimization instance, such as the learning rate and momentum, is an important but nonconvex problem. As a result, iterative optimization methods such as hypergradient descent lack global optimality guarantees in general. We propose an online nonstochastic control methodology for mathematical optimization. First, we formalize the setting of meta-optimization, an online learning formulation of learning the best optimization algorithm from a class of methods. The meta-optimization problem over gradient-based methods can be framed as a feedback control problem over the choice of hyperparameters, including the learning rate, momentum, and the preconditioner. Although the original optimal control problem is nonconvex, we show how recent methods from online nonstochastic control using convex relaxations can be used to overcome the challenge of nonconvexity, and obtain regret guarantees against the best offline solution. This guarantees that in meta-optimization, given a sequence of optimization problems, we can learn a method that attains convergence comparable to that of the best optimization method in hindsight from a class of methods.

arxiv情報

著者 Xinyi Chen,Elad Hazan
発行日 2023-12-04 18:19:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク