要約
このペーパーでは、コスト関数の広範な評価が高価であったり、アクセスできなかったり、あるいは法外に高価であったりするシナリオにおいて、グローバル最適化のための新しいヒューリスティックを紹介します。
Landscape-Sketch-and-Step (LSS) と呼ばれるこの手法は、機械学習、確率的最適化、強化学習の手法を組み合わせたもので、以前にサンプリングされたポイントからの履歴情報に依存して、コスト関数が適切であるべきパラメーター値を賢明に選択します。
で評価されました。
レプリカ交換モンテカルロ法による最適化とは異なり、このアプローチで必要なコスト関数の評価数は、シミュレーテッド アニーリングで使用されるコスト関数の評価数に匹敵します。この品質は、高スループット コンピューティングや高性能コンピューティング タスクなどのコンテキストで特に重要です。
評価は計算コストが高くなるか、実行に時間がかかります。
この方法は、目的関数の近似や再構築を目的としたサロゲート モデルを構築しないため、標準的なサロゲート最適化手法とも異なります。
私たちの方法を低次元の最適化問題 (次元 1、2、4、および 8) に適用することで説明します。この問題は、コスト関数が険しく、極小値に悩まされている凝縮物物理学でよく見られる、険しいエネルギー環境における最小化の既知の困難を模倣します。
。
従来のシミュレーテッド アニーリングと比較すると、LSS は最適化プロセスを効果的に加速します。
要約(オリジナル)
In this paper, we introduce a new heuristics for global optimization in scenarios where extensive evaluations of the cost function are expensive, inaccessible, or even prohibitive. The method, which we call Landscape-Sketch-and-Step (LSS), combines Machine Learning, Stochastic Optimization, and Reinforcement Learning techniques, relying on historical information from previously sampled points to make judicious choices of parameter values where the cost function should be evaluated at. Unlike optimization by Replica Exchange Monte Carlo methods, the number of evaluations of the cost function required in this approach is comparable to that used by Simulated Annealing, quality that is especially important in contexts like high-throughput computing or high-performance computing tasks, where evaluations are either computationally expensive or take a long time to be performed. The method also differs from standard Surrogate Optimization techniques, for it does not construct a surrogate model that aims at approximating or reconstructing the objective function. We illustrate our method by applying it to low dimensional optimization problems (dimensions 1, 2, 4, and 8) that mimick known difficulties of minimization on rugged energy landscapes often seen in Condensed Matter Physics, where cost functions are rugged and plagued with local minima. When compared to classical Simulated Annealing, the LSS shows an effective acceleration of the optimization process.
arxiv情報
著者 | Rafael Monteiro,Kartik Sau |
発行日 | 2023-10-02 15:37:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google