Functional relevance based on the continuous Shapley value

要約

私たちの社会における人工知能 (AI) の存在感が高まっており、これに伴い、表形式のデータ、テキスト、画像などの種類のデータを入力とした機械学習予測アルゴリズムなど、AI メカニズムの動作を理解する必要が生じています。
この研究は、機能データに基づく予測モデルの解釈可能性に焦点を当てています。
関数データ モデルの解釈可能性メソッドを設計することは、サイズが無限である一連の特徴を扱うことを意味します。
スカラー関数回帰の文脈において、我々は、連続ゲームのシャプレー値に基づく解釈可能性手法を提案します。これは、連続セットのプレイヤー間でグローバルな利得を公平に分配することを可能にする数学的定式化です。
この方法は、シミュレートされたデータセットと実際のデータセットを使用した一連の実験を通じて説明されています。
オープンソースの Python パッケージ ShapleyFDA も紹介されています。

要約(オリジナル)

The presence of Artificial Intelligence (AI) in our society is increasing, which brings with it the need to understand the behaviour of AI mechanisms, including machine learning predictive algorithms fed with tabular data, text, or images, among other types of data. This work focuses on interpretability of predictive models based on functional data. Designing interpretability methods for functional data models implies working with a set of features whose size is infinite. In the context of scalar on function regression, we propose an interpretability method based on the Shapley value for continuous games, a mathematical formulation that allows to fairly distribute a global payoff among a continuous set players. The method is illustrated through a set of experiments with simulated and real data sets. The open source Python package ShapleyFDA is also presented.

arxiv情報

著者 Pedro Delicado,Cristian Pachón-García
発行日 2024-11-27 18:20:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.AP, stat.ML パーマリンク