Learning Best-in-Class Policies for the Predict-then-Optimize Framework

要約

我々は、予測-最適化フレームワークのために、摂動勾配(PG)損失と呼ばれる、決定を考慮した新しい代用損失ファミリーを提案する。これらの損失は、下流の決定損失を直接近似し、市販の勾配ベースの手法を用いて最適化することができる。重要なことは、既存の代理損失とは異なり、我々のPG損失の近似誤差はサンプル数が増加するにつれて消失することである。このことは、本サロゲート損失を最適化することで、誤仕様化された設定においても、漸近的にクラス最高の政策が得られることを意味する。これは、誤仕様化された設定における最初のこのような結果であり、基礎となるモデルが誤仕様化され、ノイズが中心対称でない場合に、我々のPG損失が既存の提案を実質的に上回ることを確認する数値的証拠を提供する。特に、より単純で解釈しやすいモデルの方が好ましいと思われるような場合においてである。

要約(オリジナル)

We propose a novel family of decision-aware surrogate losses, called Perturbation Gradient (PG) losses, for the predict-then-optimize framework. These losses directly approximate the downstream decision loss and can be optimized using off-the-shelf gradient-based methods. Importantly, unlike existing surrogate losses, the approximation error of our PG losses vanishes as the number of samples grows. This implies that optimizing our surrogate loss yields a best-in-class policy asymptotically, even in misspecified settings. This is the first such result in misspecified settings and we provide numerical evidence confirming our PG losses substantively outperform existing proposals when the underlying model is misspecified and the noise is not centrally symmetric. Insofar as misspecification is commonplace in practice — especially when we might prefer a simpler, more interpretable model — PG losses offer a novel, theoretically justified, method for computationally tractable decision-aware learning.

arxiv情報

著者 Michael Huang,Vishal Gupta
発行日 2024-02-05 18:14:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, math.OC, stat.ML パーマリンク