Communicating Uncertainty in Machine Learning Explanations: A Visualization Analytics Approach for Predictive Process Monitoring

要約

タイトル:予測プロセスモニタリングのための機械学習説明の不確実性の伝達:可視化分析アプローチ

要約:

– データ駆動型のインテリジェントシステムが進化するにつれて、信頼できる透明性の高い意思決定メカニズムがますます重要になっています。
– そのため、不確実性の量子化とモデルの説明性アプローチを統合して、信頼性の高いビジネス運用プロセス分析を促進することが不可欠です。
– この研究は、Partial Dependence Plots(PDP)やIndividual Conditional Expectation(ICE)プロットなどのグローバルおよびローカルのポストホック説明アプローチでモデルの不確実性を効果的に伝える方法を探求しています。
– さらに、適切な可視化分析アプローチを検討して、この方法論的統合を促進します。
– これらの2つの研究方向を組み合わせることで、意思決定者は説明に基づく実行可能な洞察力の妥当性を正当化することができ、信頼性を検証することもできます。
– 最後に、この研究は、製造業界の実世界の予測プロセスモニタリング問題に対して提案されたアプローチと設計インターフェースの適切性を評価するために専門家へのインタビューを含んでいます。

要約(オリジナル)

As data-driven intelligent systems advance, the need for reliable and transparent decision-making mechanisms has become increasingly important. Therefore, it is essential to integrate uncertainty quantification and model explainability approaches to foster trustworthy business and operational process analytics. This study explores how model uncertainty can be effectively communicated in global and local post-hoc explanation approaches, such as Partial Dependence Plots (PDP) and Individual Conditional Expectation (ICE) plots. In addition, this study examines appropriate visualization analytics approaches to facilitate such methodological integration. By combining these two research directions, decision-makers can not only justify the plausibility of explanation-driven actionable insights but also validate their reliability. Finally, the study includes expert interviews to assess the suitability of the proposed approach and designed interface for a real-world predictive process monitoring problem in the manufacturing domain.

arxiv情報

著者 Nijat Mehdiyev,Maxim Majlatow,Peter Fettke
発行日 2023-04-12 09:44:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG, stat.AP パーマリンク