Score Function Gradient Estimation to Widen the Applicability of Decision-Focused Learning

要約

現実世界の最適化問題の多くには、解く前に予測する必要がある未知のパラメーターが含まれています。
関連する予測機械学習 (ML) モデルをトレーニングするために、一般的に採用されるアプローチは、予測精度の最大化に焦点を当てています。
ただし、このアプローチが常に下流のタスク損失の最小化につながるとは限りません。
意思決定集中学習 (DFL) は最近提案されたパラダイムで、その目標はタスク損失を直接最小限に抑えて ML モデルをトレーニングすることです。
ただし、最先端の DFL 手法は、最適化問題の構造に関する仮定 (問題が線形であるなど) と、目的関数に現れるパラメーターのみを予測できるという事実によって制限されます。
この研究では、代わりにパラメーター全体にわたって \textit{distributions} を予測し、スコア関数勾配推定 (SFGE) を採用して予測モデルに対する意思決定に重点を置いた更新を計算することで、これらの制限に対処します。これにより、DFL の適用可能性が広がります。
私たちの実験は、SFGE を使用することで次のことができることを示しています。(1) 目的関数と制約の両方で発生する予測を処理します。
(2) 2 段階の確率的最適化問題に効果的に取り組みます。

要約(オリジナル)

Many real-world optimization problems contain unknown parameters that must be predicted prior to solving. To train the predictive machine learning (ML) models involved, the commonly adopted approach focuses on maximizing predictive accuracy. However, this approach does not always lead to the minimization of the downstream task loss. Decision-focused learning (DFL) is a recently proposed paradigm whose goal is to train the ML model by directly minimizing the task loss. However, state-of-the-art DFL methods are limited by the assumptions they make about the structure of the optimization problem (e.g., that the problem is linear) and by the fact that can only predict parameters that appear in the objective function. In this work, we address these limitations by instead predicting \textit{distributions} over parameters and adopting score function gradient estimation (SFGE) to compute decision-focused updates to the predictive model, thereby widening the applicability of DFL. Our experiments show that by using SFGE we can: (1) deal with predictions that occur both in the objective function and in the constraints; and (2) effectively tackle two-stage stochastic optimization problems.

arxiv情報

著者 Mattia Silvestri,Senne Berden,Jayanta Mandi,Ali İrfan Mahmutoğulları,Maxime Mulamba,Allegra De Filippo,Tias Guns,Michele Lombardi
発行日 2023-07-11 12:32:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク