要約
いくつかの説明可能な AI メソッドを使用すると、機械学習のユーザーは、ブラック ボックス モデルの分類プロセスに関する洞察を局所的な線形説明の形で得ることができます。
このような情報を使用して、ユーザーはどの特徴が分類結果に局所的に関連しているかを判断し、モデルがどのように推論するかを理解することができます。
標準の教師あり学習プロセスは、元の機能とターゲット ラベルによって純粋に駆動され、事後説明によって特定された機能のローカル関連性によって通知されるフィードバック ループはありません。
このホワイト ペーパーでは、この新しく取得した情報を利用して、説明を特徴値と組み合わせる特徴量エンジニアリング フェーズを設計します。
そのために、反復データセット加重とターゲット置換値という名前の 2 つの異なる戦略を開発します。これらは、ユーザーに提示される説明プロセスをより適切に模倣する合理化されたモデルを生成します。
これらの合理化されたモデルが、新しく生成された説明の精度とコンパクトさの点で、元のブラック ボックス分類器とどのように比較されるかを示します。
要約(オリジナル)
Several explainable AI methods allow a Machine Learning user to get insights on the classification process of a black-box model in the form of local linear explanations. With such information, the user can judge which features are locally relevant for the classification outcome, and get an understanding of how the model reasons. Standard supervised learning processes are purely driven by the original features and target labels, without any feedback loop informed by the local relevance of the features identified by the post-hoc explanations. In this paper, we exploit this newly obtained information to design a feature engineering phase, where we combine explanations with feature values. To do so, we develop two different strategies, named Iterative Dataset Weighting and Targeted Replacement Values, which generate streamlined models that better mimic the explanation process presented to the user. We show how these streamlined models compare to the original black-box classifiers, in terms of accuracy and compactness of the newly produced explanations.
arxiv情報
著者 | Francesco Lomuscio,Paolo Bajardi,Alan Perotti,Elvio G. Amparore |
発行日 | 2023-02-15 16:08:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google