要約
正確なエネルギー消費予測は、充電のためのルート計画など、電気商用大型車両の運用を最適化するために重要です。
さらに、そのような予測モデルがユーザーの信頼を得て実際に導入されるためには、特定の予測が行われる理由を理解することが最も重要です。
商用車は、輸送タスク、環境、ドライバーの変化に応じて動作が異なるため、エネルギー消費を予測する AI システムを構築する場合は、異種混合が予想されます。
入力特徴とターゲット値の間の依存関係も、部分母集団間で異なることが予想されます。
このような統計現象のよく知られた例の 1 つは、シンプソンのパラドックスです。
この論文では、このような設定が、グローバルな特徴統計を生成する既存の XAI 手法にとって課題となることを説明します。
LIME または SHAP は、誤解を招く結果をもたらす原因となります。
データのサブセットに対して多重回帰モデルをトレーニングすることで、潜在的な解決策を実証します。
これにより、優れた回帰パフォーマンスが得られるだけでなく、より適切で一貫性のある LIME 説明が得られます。
使用されたグループ化が関連する部分母集団に対応しているとすると、入力特徴とターゲット値の間の関連付けは、各クラスター内では一貫していますが、クラスター間では異なります。
合成データセットと現実世界のデータセットの両方での実験では、このように複雑な問題をより単純な問題に分割すると、回帰パフォーマンスと解釈可能性が向上することが示されています。
要約(オリジナル)
Accurate energy consumption prediction is crucial for optimizing the operation of electric commercial heavy-duty vehicles, e.g., route planning for charging. Moreover, understanding why certain predictions are cast is paramount for such a predictive model to gain user trust and be deployed in practice. Since commercial vehicles operate differently as transportation tasks, ambient, and drivers vary, a heterogeneous population is expected when building an AI system for forecasting energy consumption. The dependencies between the input features and the target values are expected to also differ across sub-populations. One well-known example of such a statistical phenomenon is the Simpson paradox. In this paper, we illustrate that such a setting poses a challenge for existing XAI methods that produce global feature statistics, e.g. LIME or SHAP, causing them to yield misleading results. We demonstrate a potential solution by training multiple regression models on subsets of data. It not only leads to superior regression performance but also more relevant and consistent LIME explanations. Given that the employed groupings correspond to relevant sub-populations, the associations between the input features and the target values are consistent within each cluster but different across clusters. Experiments on both synthetic and real-world datasets show that such splitting of a complex problem into simpler ones yields better regression performance and interpretability.
arxiv情報
著者 | Yuantao Fan,Zhenkan Wang,Sepideh Pashami,Slawomir Nowaczyk,Henrik Ydreskog |
発行日 | 2023-11-27 16:52:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google