GLISp-r: A preference-based optimization algorithm with convergence guarantees

要約

設定ベースの最適化アルゴリズムは、異なる調整のカップル間の比較のみに基づいて決定ベクトルの最適なキャリブレーションを求める反復手順です。
各反復で、人間の意思決定者は 2 つのキャリブレーション (サンプル) 間の好みを表明し、どちらが他方よりも優れているのかを強調します。
最適化手順では、観察されたプリファレンスを使用して、比較の数を最小限に抑えながら、意思決定者が最も好む決定ベクトルの調整を見つける必要があります。
この研究では、効用理論の観点から選好に基づく最適化問題を定式化します。
次に、GLISp と呼ばれる最近の好みに基づく最適化手順を拡張した GLISp-r を提案します。
後者は、放射基底関数サロゲートを使用して、意思決定者の好みを記述します。
GLISp は、サロゲート モデルの活用と決定空間の探索をトレードオフすることにより、利用可能な最良のキャリブレーションと比較するための新しいサンプルを繰り返し提案します。
GLISp-r では、ブラックボックス最適化フレームワークで一般的な手順である MSRS からインスピレーションを得た、新しい候補サンプルを探すときに使用する別の基準を提案します。
GLISp と比較して、GLISp-r は好みに基づく最適化問題の局所最適化に行き詰まる可能性が低くなります。
我々は、大域収束の証明によって理論的に、またいくつかのベンチマーク最適化問題における GLISp と GLISp-r のパフォーマンスを比較することによって経験的にこの主張を動機づけています。

要約(オリジナル)

Preference-based optimization algorithms are iterative procedures that seek the optimal calibration of a decision vector based only on comparisons between couples of different tunings. At each iteration, a human decision-maker expresses a preference between two calibrations (samples), highlighting which one, if any, is better than the other. The optimization procedure must use the observed preferences to find the tuning of the decision vector that is most preferred by the decision-maker, while also minimizing the number of comparisons. In this work, we formulate the preference-based optimization problem from a utility theory perspective. Then, we propose GLISp-r, an extension of a recent preference-based optimization procedure called GLISp. The latter uses a Radial Basis Function surrogate to describe the tastes of the decision-maker. Iteratively, GLISp proposes new samples to compare with the best calibration available by trading off exploitation of the surrogate model and exploration of the decision space. In GLISp-r, we propose a different criterion to use when looking for new candidate samples that is inspired by MSRS, a popular procedure in the black-box optimization framework. Compared to GLISp, GLISp-r is less likely to get stuck on local optima of the preference-based optimization problem. We motivate this claim theoretically, with a proof of global convergence, and empirically, by comparing the performances of GLISp and GLISp-r on several benchmark optimization problems.

arxiv情報

著者 Davide Previtali,Mirko Mazzoleni,Antonio Ferramosca,Fabio Previdi
発行日 2023-10-02 08:39:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC パーマリンク