On the Robustness of Decision-Focused Learning

要約

意思決定焦点学習 (DFL) は、不完全な最適化問題の欠落パラメーターを予測するために機械学習 (ML) モデルをトレーニングするタスクに取り組む新たな学習パラダイムであり、欠落パラメーターが予測されます。
DFL は、予測タスクと最適化タスクを統合することにより、エンドツーエンド システムで ML モデルをトレーニングし、トレーニングとテストの目標をより適切に調整します。
DFL は多くの将来性を示しており、現実世界の多くのアプリケーションにおける意思決定に革命を起こす能力を保持しています。
ただし、敵対的な攻撃下でのこれらのモデルのパフォーマンスについてはほとんど知られていません。
私たちは 10 のユニークな DFL 手法を採用し、問題設定を予測して最適化することに適応した 2 つの明確に焦点を当てた攻撃の下でそのパフォーマンスをベンチマークします。
私たちの研究は、モデルの堅牢性が、グラウンドトゥルースのラベルから逸脱することなく最適な決定につながる予測を見つける能力と高度に相関しているという仮説を提案しています。
さらに、この条件に違反するモデルをターゲットにする方法についての洞察を提供し、トレーニング サイクルの終了時に達成された最適性に応じてこれらのモデルがどのように異なる反応を示すかを示します。

要約(オリジナル)

Decision-Focused Learning (DFL) is an emerging learning paradigm that tackles the task of training a machine learning (ML) model to predict missing parameters of an incomplete optimization problem, where the missing parameters are predicted. DFL trains an ML model in an end-to-end system, by integrating the prediction and optimization tasks, providing better alignment of the training and testing objectives. DFL has shown a lot of promise and holds the capacity to revolutionize decision-making in many real-world applications. However, very little is known about the performance of these models under adversarial attacks. We adopt ten unique DFL methods and benchmark their performance under two distinctly focused attacks adapted towards the Predict-then-Optimize problem setting. Our study proposes the hypothesis that the robustness of a model is highly correlated with its ability to find predictions that lead to optimal decisions without deviating from the ground-truth label. Furthermore, we provide insight into how to target the models that violate this condition and show how these models respond differently depending on the achieved optimality at the end of their training cycles.

arxiv情報

著者 Yehya Farhat
発行日 2023-12-28 15:14:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68Txx, cs.LG, math.OC パーマリンク