Gradient boosting for convex cone predict and optimize problems

要約

予測モデルは通常、意思決定の最適化とは独立して最適化されます。
スマート予測後最適化 (SPO) フレームワークは、下流の意思決定の後悔を最小限に抑えるために予測モデルを最適化します。
この論文では、問題を「予測して最適化する」ためのスマート勾配ブースティングの最初の汎用実装である dboost を紹介します。
このフレームワークは凸二次円錐プログラミングをサポートしており、勾配ブースティングはカスタム固定小数点マッピングの暗黙的な微分によって実行されます。
最先端の SPO 手法と比較した実験では、dboost がサンプル外の意思決定の後悔をさらに軽減できることが示されています。

要約(オリジナル)

Prediction models are typically optimized independently from decision optimization. A smart predict then optimize (SPO) framework optimizes prediction models to minimize downstream decision regret. In this paper we present dboost, the first general purpose implementation of smart gradient boosting for `predict, then optimize’ problems. The framework supports convex quadratic cone programming and gradient boosting is performed by implicit differentiation of a custom fixed-point mapping. Experiments comparing with state-of-the-art SPO methods show that dboost can further reduce out-of-sample decision regret.

arxiv情報

著者 Andrew Butler,Roy H. Kwon
発行日 2023-06-07 16:12:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, stat.ML パーマリンク