Learning Multiple Initial Solutions to Optimization Problems

要約

厳しい実行時間制約の下で類似の最適化問題を逐次的に解くことは、ロボット制御、自律走行、ポートフォリオ管理など、多くのアプリケーションにとって不可欠である。このような環境における局所最適化手法の性能は初期解に敏感であり、初期化がうまくいかないと収束が遅くなったり、最適解に満たなくなったりします。この課題に対処するために、我々は、問題インスタンスを定義するパラメータが与えられた場合に、¬複数¬の多様な初期解を予測する学習を提案する。複数の初期解を利用するための2つの戦略を紹介します:(i) 選択関数を用いて最も有望な初期解を選択する単一オプティマイザーアプローチと、(ii) 複数のオプティマイザーを並列に実行する可能性のある複数のオプティマイザーをそれぞれ異なる解で初期化し、その後に最良の解を選択する複数オプティマイザーアプローチです。注目すべきは、予測された初期化の中にデフォルトの初期化を含めることで、最終的な出力のコストは、デフォルトの初期化の場合と同等か、それ以下になることが保証されることである。異なる最適化器を用いて、カートポール、リーチャー、自律走行の3つの最適制御ベンチマークタスクで本手法を検証する:DDP、MPPI、iLQRである。我々は、全ての評価設定において、本手法が有意かつ一貫した改善を見いだし、必要とされる初期解の数に応じて効率的にスケールすることを実証する。コードはMISO (https://github.com/EladSharony/miso)にある。

要約(オリジナル)

Sequentially solving similar optimization problems under strict runtime constraints is essential for many applications, such as robot control, autonomous driving, and portfolio management. The performance of local optimization methods in these settings is sensitive to the initial solution: poor initialization can lead to slow convergence or suboptimal solutions. To address this challenge, we propose learning to predict \emph{multiple} diverse initial solutions given parameters that define the problem instance. We introduce two strategies for utilizing multiple initial solutions: (i) a single-optimizer approach, where the most promising initial solution is chosen using a selection function, and (ii) a multiple-optimizers approach, where several optimizers, potentially run in parallel, are each initialized with a different solution, with the best solution chosen afterward. Notably, by including a default initialization among predicted ones, the cost of the final output is guaranteed to be equal or lower than with the default initialization. We validate our method on three optimal control benchmark tasks: cart-pole, reacher, and autonomous driving, using different optimizers: DDP, MPPI, and iLQR. We find significant and consistent improvement with our method across all evaluation settings and demonstrate that it efficiently scales with the number of initial solutions required. The code is available at MISO (https://github.com/EladSharony/miso).

arxiv情報

著者 Elad Sharony,Heng Yang,Tong Che,Marco Pavone,Shie Mannor,Peter Karkus
発行日 2025-02-03 08:21:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY パーマリンク