iPDP: On Partial Dependence Plots in Dynamic Modeling Scenarios

要約

機能の依存関係を調査する確立された部分依存プロット (PDP) などの事後説明手法は、説明可能な人工知能 (XAI) でブラックボックス機械学習モデルを理解するために使用されます。
現実世界のアプリケーションの多くは、時間の経過とともに常に適応し、基礎となる分布の変化に反応する動的モデルを必要としますが、XAI はこれまで主に、モデルがバッチ モードでトレーニングされ、変更されない静的学習環境を考慮してきました。
そこで、我々は、PDP を拡張して非定常学習環境における時間依存の特徴効果を抽出する、インクリメンタル PDP (iPDP) と呼ばれる新しいモデルに依存しない XAI フレームワークを提案します。
私たちは iPDP を正式に分析し、それが現実および仮想の概念ドリフトに適切に反応する PDP の時間依存の変形に近似していることを示します。
iPDP の時間感度は、静的学習環境における iPDP の分散と近似誤差に直接対応する単一の平滑化パラメーターによって制御されます。
ドリフト検出のアプリケーション例を紹介し、実世界および合成のデータセットとストリームで複数の実験を実施することで、iPDP の有効性を説明します。

要約(オリジナル)

Post-hoc explanation techniques such as the well-established partial dependence plot (PDP), which investigates feature dependencies, are used in explainable artificial intelligence (XAI) to understand black-box machine learning models. While many real-world applications require dynamic models that constantly adapt over time and react to changes in the underlying distribution, XAI, so far, has primarily considered static learning environments, where models are trained in a batch mode and remain unchanged. We thus propose a novel model-agnostic XAI framework called incremental PDP (iPDP) that extends on the PDP to extract time-dependent feature effects in non-stationary learning environments. We formally analyze iPDP and show that it approximates a time-dependent variant of the PDP that properly reacts to real and virtual concept drift. The time-sensitivity of iPDP is controlled by a single smoothing parameter, which directly corresponds to the variance and the approximation error of iPDP in a static learning environment. We illustrate the efficacy of iPDP by showcasing an example application for drift detection and conducting multiple experiments on real-world and synthetic data sets and streams.

arxiv情報

著者 Maximilian Muschalik,Fabian Fumagalli,Rohit Jagtani,Barbara Hammer,Eyke Hüllermeier
発行日 2023-06-13 13:56:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, eess.SP パーマリンク