要約
このペーパーでは、機械学習モデルの不確実性を考慮した説明を迅速に生成するために設計された手法である高速校正説明を紹介します。
グローバルな説明フレームワークである ConformaSight の摂動技術を Calibrated Explains (CE) のコア要素に組み込むことで、大幅な高速化を実現します。
これらの中核要素には、キャリブレーションされた予測を伴う局所特徴の重要性が含まれており、どちらも不確実性の定量化を保持します。
新しい方法では、細部は多少犠牲になりますが、計算効率に優れているため、一か八かのリアルタイム アプリケーションに最適です。
高速調整された説明は、分類およびしきい値回帰タスクにおける確率的説明に適用でき、ターゲットがユーザー定義のしきい値を上回るか下回る可能性を提供します。
このアプローチは、分類と確率回帰の両方に対する CE の多用途性を維持し、不確実性の定量化が重要なさまざまな予測タスクに適しています。
要約(オリジナル)
This paper introduces Fast Calibrated Explanations, a method designed for generating rapid, uncertainty-aware explanations for machine learning models. By incorporating perturbation techniques from ConformaSight – a global explanation framework – into the core elements of Calibrated Explanations (CE), we achieve significant speedups. These core elements include local feature importance with calibrated predictions, both of which retain uncertainty quantification. While the new method sacrifices a small degree of detail, it excels in computational efficiency, making it ideal for high-stakes, real-time applications. Fast Calibrated Explanations are applicable to probabilistic explanations in classification and thresholded regression tasks, where they provide the likelihood of a target being above or below a user-defined threshold. This approach maintains the versatility of CE for both classification and probabilistic regression, making it suitable for a range of predictive tasks where uncertainty quantification is crucial.
arxiv情報
著者 | Tuwe Löfström,Fatima Rabia Yapicioglu,Alessandra Stramiglio,Helena Löfström,Fabio Vitali |
発行日 | 2024-10-28 15:29:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google