要約
表形式のデータは、現実のアプリケーションで頻繁に使用されます。
グラフ ニューラル ネットワーク (GNN) は最近、そのようなデータを効果的に処理できるように拡張され、表現学習を通じて特徴の相互作用をキャプチャできるようになりました。
ただし、これらのアプローチは基本的に、ディープ ニューラル ネットワークの形式でブラック ボックス モデルを生成し、ユーザーがモデル予測の背後にあるロジックに従うことを妨げます。
私たちは、IGNNet (表形式データ用の解釈可能なグラフ ニューラル ネットワーク) と呼ばれるアプローチを提案します。このアプローチは、学習アルゴリズムを制約して解釈可能なモデルを生成します。モデルは、元の入力特徴から予測がどのように正確に計算されるかを示します。
大規模な実証調査が紹介され、IGNNet が、XGBoost、ランダム フォレスト、TabNet などの表形式データを対象とする最先端の機械学習アルゴリズムと同等のパフォーマンスを発揮していることが示されています。
同時に、結果は、IGNNet から得られた説明が、追加の計算オーバーヘッドを発生させることなく、特徴の真の Shapley 値と一致していることを示しています。
要約(オリジナル)
Data in tabular format is frequently occurring in real-world applications. Graph Neural Networks (GNNs) have recently been extended to effectively handle such data, allowing feature interactions to be captured through representation learning. However, these approaches essentially produce black-box models, in the form of deep neural networks, precluding users from following the logic behind the model predictions. We propose an approach, called IGNNet (Interpretable Graph Neural Network for tabular data), which constrains the learning algorithm to produce an interpretable model, where the model shows how the predictions are exactly computed from the original input features. A large-scale empirical investigation is presented, showing that IGNNet is performing on par with state-of-the-art machine-learning algorithms that target tabular data, including XGBoost, Random Forests, and TabNet. At the same time, the results show that the explanations obtained from IGNNet are aligned with the true Shapley values of the features without incurring any additional computational overhead.
arxiv情報
著者 | Amr Alkhatib,Sofiane Ennadir,Henrik Boström,Michalis Vazirgiannis |
発行日 | 2024-08-13 12:44:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google