Learning Causal Attributions in Neural Networks: Beyond Direct Effects

要約

近年、ニューラル ネットワーク (NN) モデルで因果関係を捉えて維持することに関心が高まっています。
この作業では、NN モデルの入出力属性を推定および維持するための因果的アプローチを研究します。
特に、この方向の既存の取り組みでは、(NN アーキテクチャのおかげで) 入力変数間の独立性が想定されているため、直接的な因果関係のみが研究されています。
NN を構造的因果モデル (SCM) と見なす代わりに、直接的な効果を超えて、入力フィーチャ間にエッジを導入し、NN モデルのトレーニング中に直接的および間接的な因果的効果をキャプチャして維持するためのシンプルで効果的な方法論を提供することに焦点を当てます。
また、高次元データの因果関係を定量化するための効果的な近似戦略も提案します。
合成データセットと現実世界のデータセットに関する幅広い実験は、提案された事前の方法が、グラウンド トゥルース効果に近い直接的および間接的な因果効果の両方の因果関係を学習することを示しています。

要約(オリジナル)

There has been a growing interest in capturing and maintaining causal relationships in Neural Network (NN) models in recent years. We study causal approaches to estimate and maintain input-output attributions in NN models in this work. In particular, existing efforts in this direction assume independence among input variables (by virtue of the NN architecture), and hence study only direct causal effects. Viewing an NN as a structural causal model (SCM), we instead focus on going beyond direct effects, introduce edges among input features, and provide a simple yet effective methodology to capture and maintain direct and indirect causal effects while training an NN model. We also propose effective approximation strategies to quantify causal attributions in high dimensional data. Our wide range of experiments on synthetic and real-world datasets show that the proposed ante-hoc method learns causal attributions for both direct and indirect causal effects close to the ground truth effects.

arxiv情報

著者 Abbaavaram Gowtham Reddy,Saketh Bachu,Harsharaj Pathak,Benin L Godfrey,Vineeth N. Balasubramanian,Varshaneya V,Satya Narayanan Kar
発行日 2023-03-24 08:17:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ME パーマリンク