RoCourseNet: Distributionally Robust Training of a Prediction Aware Recourse Model

要約

機械学習 (ML) モデルの反事実 (CF) 説明は、予測結果によって悪影響を受ける個人に救済 (または対照的) ケースを提供することで ML モデルの予測を説明するため、エンドユーザーに好まれます。
既存の CF 説明手法は、基礎となるターゲット ML モデルが時間の経過とともに静止したままであるという仮定に基づいてリソースを生成します。
ただし、トレーニング データの分布の変化が一般的に発生するため、実際には ML モデルが常に更新され、以前に生成されたリソースが無効になり、アルゴリズム フレームワークに対するエンドユーザーの信頼が低下する可能性があります。
この問題に対処するために、私たちは、将来のデータの変化に対して堅牢な予測とリソースを共同で最適化するトレーニング フレームワークである RoCourseNet を提案します。
この研究には 4 つの重要な貢献が含まれています。 (1) ロバストなリソース生成問題を、2 つのサブ問題で構成される 3 レベルの最適化問題として定式化します。 (i) 最悪の場合の敵対的シフトを見つける 2 レベル問題
トレーニング データ、および (ii) この最悪の場合のシフトに対する堅牢な手段を生成するための外部最小化問題。
(2) 敵対的トレーニングを活用して、この 3 レベルの最適化問題を解決します。(i) トレーニングで最悪の場合のデータ シフトを明示的に考慮することで、最悪の場合のシフトされた ML モデルを見つけるための新しい仮想データ シフト (VDS) アルゴリズムを提案します。
データセット、および (ii) 予測と対応するロバストなリソースを最適化するためのブロック単位の座標降下手順。
(3) 3 つの現実世界のデータセットで RoCourseNet のパフォーマンスを評価し、RoCourseNet が一貫して 96% 以上の堅牢な妥当性を達成し、堅牢な CF 説明の生成において最先端のベースラインを少なくとも 10% 上回るパフォーマンスを示すことを示します。
(4) 最後に、RoCourseNet フレームワークを一般化して、ロバストな妥当性を向上させるためのパラメトリック ポストホック手法に対応します。

要約(オリジナル)

Counterfactual (CF) explanations for machine learning (ML) models are preferred by end-users, as they explain the predictions of ML models by providing a recourse (or contrastive) case to individuals who are adversely impacted by predicted outcomes. Existing CF explanation methods generate recourses under the assumption that the underlying target ML model remains stationary over time. However, due to commonly occurring distributional shifts in training data, ML models constantly get updated in practice, which might render previously generated recourses invalid and diminish end-users trust in our algorithmic framework. To address this problem, we propose RoCourseNet, a training framework that jointly optimizes predictions and recourses that are robust to future data shifts. This work contains four key contributions: (1) We formulate the robust recourse generation problem as a tri-level optimization problem which consists of two sub-problems: (i) a bi-level problem that finds the worst-case adversarial shift in the training data, and (ii) an outer minimization problem to generate robust recourses against this worst-case shift. (2) We leverage adversarial training to solve this tri-level optimization problem by: (i) proposing a novel virtual data shift (VDS) algorithm to find worst-case shifted ML models via explicitly considering the worst-case data shift in the training dataset, and (ii) a block-wise coordinate descent procedure to optimize for prediction and corresponding robust recourses. (3) We evaluate RoCourseNet’s performance on three real-world datasets, and show that RoCourseNet consistently achieves more than 96% robust validity and outperforms state-of-the-art baselines by at least 10% in generating robust CF explanations. (4) Finally, we generalize the RoCourseNet framework to accommodate any parametric post-hoc methods for improving robust validity.

arxiv情報

著者 Hangzhi Guo,Feiran Jia,Jinghui Chen,Anna Squicciarini,Amulya Yadav
発行日 2023-08-18 14:31:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク