要約
説明可能な人工知能方法の急増は、機械学習モデルの透明性と説明可能性を向上させようとしています。
同時に、数学的最適化で使用される複雑なアルゴリズムを介して行われた決定を説明するための需要が高まっています。
ただし、現在の説明方法では、根本的な最適化問題の構造を考慮しておらず、信頼できない結果につながります。
このニーズに応えて、数学的最適化(CLEMO)のコヒーレントな局所的な説明を紹介します。
CLEMOは、基礎となるモデル構造と一貫性のある最適化モデルの複数のコンポーネント、客観的値と決定変数の説明を提供します。
サンプリングベースの手順は、正確でヒューリスティックなソリューションアルゴリズムの動作に関する説明を提供できます。
CLEMOの有効性は、最短のパス問題、ナップサックの問題、および車両ルーティングの問題の実験によって説明されています。
要約(オリジナル)
The surge of explainable artificial intelligence methods seeks to enhance transparency and explainability in machine learning models. At the same time, there is a growing demand for explaining decisions taken through complex algorithms used in mathematical optimization. However, current explanation methods do not take into account the structure of the underlying optimization problem, leading to unreliable outcomes. In response to this need, we introduce Coherent Local Explanations for Mathematical Optimization (CLEMO). CLEMO provides explanations for multiple components of optimization models, the objective value and decision variables, which are coherent with the underlying model structure. Our sampling-based procedure can provide explanations for the behavior of exact and heuristic solution algorithms. The effectiveness of CLEMO is illustrated by experiments for the shortest path problem, the knapsack problem, and the vehicle routing problem.
arxiv情報
著者 | Daan Otto,Jannis Kurtz,S. Ilker Birbil |
発行日 | 2025-06-18 16:50:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google