A Nonstochastic Control Approach to Optimization

要約

学習率や運動量など、特定の最適化インスタンスに最適なハイパーパラメーターを選択することは重要ですが、凸ではない問題です。
その結果、超勾配降下法などの反復最適化手法では、一般に大域的最適性が保証されません。
数理最適化のためのオンライン非確率的制御方法論を提案します。
まず、メソッドのクラスから最適な最適化アルゴリズムを学習するオンライン学習定式化であるメタ最適化の設定を形式化します。
勾配ベースの方法に対するメタ最適化問題は、学習率、運動量、前提条件などのハイパーパラメーターの選択に対するフィードバック制御問題として組み立てることができます。
元の最適制御問題は非凸ですが、凸緩和を使用したオンライン非確率制御からの最近の方法を使用して非凸性を回避し、最適なオフライン ソリューションに対して後悔の保証を得る方法を示します。
これにより、メタ最適化では、一連の最適化問題が与えられた場合、メソッドのクラスから後知恵で最良の最適化法に匹敵する収束を達成する方法を学習できることが保証されます。

要約(オリジナル)

Selecting the best hyperparameters for a particular optimization instance, such as the learning rate and momentum, is an important but nonconvex problem. As a result, iterative optimization methods such as hypergradient descent lack global optimality guarantees in general. We propose an online nonstochastic control methodology for mathematical optimization. First, we formalize the setting of meta-optimization, an online learning formulation of learning the best optimization algorithm from a class of methods. The meta-optimization problem over gradient-based methods can be framed as a feedback control problem over the choice of hyperparameters, including the learning rate, momentum, and the preconditioner. Although the original optimal control problem is nonconvex, we show how recent methods from online nonstochastic control using convex relaxations can be used to circumvent the nonconvexity, and obtain regret guarantees vs. the best offline solution. This guarantees that in meta-optimization, given a sequence of optimization problems, we can learn a method that attains convergence comparable to that of the best optimization method in hindsight from a class of methods.

arxiv情報

著者 Xinyi Chen,Elad Hazan
発行日 2023-02-14 18:04:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク