Fair Feature Importance Scores for Interpreting Tree-Based Methods and Surrogates

要約

医療、刑事司法、国家安全保障、金融、テクノロジーなどのさまざまな分野で、重要なデータ駆動型の意思決定を行うために、大規模な機械学習 (ML) および人工知能 (AI) システムが導入されています。
これらの ML システムがこれらの決定を行っていることを信頼できるのか、また信頼すべきなのか、多くの人が尋ねてきました。
ML システムの信頼性には 2 つの重要な要素が必要条件です。それは、解釈可能性、つまり ML システムが決定を下す理由を理解する能力、もう 1 つは、ML システムが特定の個人やグループに対して偏見を示さないことを保証する公平性です。
解釈可能性と公平性はどちらも重要であり、ML 文献では個別に多くの注目を集めてきましたが、これまでのところ、公平性に関してモデルを直接解釈する方法はほとんど開発されていません。
このペーパーでは、おそらく最も一般的なタイプの ML 解釈である特徴重要度スコアに焦点を当てます。
知識の蒸留におけるデシジョン ツリーの使用にヒントを得て、複雑なブラックボックス ML モデルの解釈可能な代理としてツリーを活用することを提案します。
具体的には、各特徴がツリー、ツリーベースのアンサンブル、または複雑な ML システムのツリーベースのサロゲートの公平性または偏りにどのように寄与するかを解釈するために使用できる、ツリーの新しい公平な特徴重要度スコアを開発します。
一般的な木の不純物の平均減少と同様に、公平な特徴重要度スコアは、グループ バイアスの平均減少 (または増加) に基づいて定義されます。
シミュレーションとベンチマーク公平性データセットの実際の例を通じて、公平特徴重要度スコアがツリーベースのアンサンブルと他の ML システムのツリーベースのサロゲートの両方に対して有効な解釈を提供することを実証します。

要約(オリジナル)

Across various sectors such as healthcare, criminal justice, national security, finance, and technology, large-scale machine learning (ML) and artificial intelligence (AI) systems are being deployed to make critical data-driven decisions. Many have asked if we can and should trust these ML systems to be making these decisions. Two critical components are prerequisites for trust in ML systems: interpretability, or the ability to understand why the ML system makes the decisions it does, and fairness, which ensures that ML systems do not exhibit bias against certain individuals or groups. Both interpretability and fairness are important and have separately received abundant attention in the ML literature, but so far, there have been very few methods developed to directly interpret models with regard to their fairness. In this paper, we focus on arguably the most popular type of ML interpretation: feature importance scores. Inspired by the use of decision trees in knowledge distillation, we propose to leverage trees as interpretable surrogates for complex black-box ML models. Specifically, we develop a novel fair feature importance score for trees that can be used to interpret how each feature contributes to fairness or bias in trees, tree-based ensembles, or tree-based surrogates of any complex ML system. Like the popular mean decrease in impurity for trees, our Fair Feature Importance Score is defined based on the mean decrease (or increase) in group bias. Through simulations as well as real examples on benchmark fairness datasets, we demonstrate that our Fair Feature Importance Score offers valid interpretations for both tree-based ensembles and tree-based surrogates of other ML systems.

arxiv情報

著者 Camille Olivia Little,Debolina Halder Lina,Genevera I. Allen
発行日 2023-10-06 16:21:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク