Towards Learning and Explaining Indirect Causal Effects in Neural Networks

要約

最近、ニューラル ネットワーク (NN) モデル内の因果効果を学習して説明することへの関心が高まっています。
NN アーキテクチャのおかげで、これまでのアプローチでは、入力変数間の独立性を仮定して、直接的かつ全体的な因果効果のみが考慮されていました。
私たちは NN を構造的因果モデル (SCM) として捉え、入力ニューロン間にフィードフォワード接続を導入することで間接的な因果効果を含めるように焦点を広げます。
NN モデルのトレーニング中に直接的、間接的、および全体的な因果効果を捕捉して維持する事前の方法を提案します。
また、NN モデルで学習した因果効果を定量化するアルゴリズムと、高次元データの因果効果を定量化するための効率的な近似戦略も提案します。
合成データセットと現実世界のデータセットに対して行われた広範な実験により、事前手法によって学習された因果効果は、既存の手法と比較してグランド トゥルース効果によく近似していることが実証されました。

要約(オリジナル)

Recently, there has been a growing interest in learning and explaining causal effects within Neural Network (NN) models. By virtue of NN architectures, previous approaches consider only direct and total causal effects assuming independence among input variables. We view an NN as a structural causal model (SCM) and extend our focus to include indirect causal effects by introducing feedforward connections among input neurons. We propose an ante-hoc method that captures and maintains direct, indirect, and total causal effects during NN model training. We also propose an algorithm for quantifying learned causal effects in an NN model and efficient approximation strategies for quantifying causal effects in high-dimensional data. Extensive experiments conducted on synthetic and real-world datasets demonstrate that the causal effects learned by our ante-hoc method better approximate the ground truth effects compared to existing methods.

arxiv情報

著者 Abbaavaram Gowtham Reddy,Saketh Bachu,Harsharaj Pathak,Benin L Godfrey,Vineeth N. Balasubramanian,Varshaneya V,Satya Narayanan Kar
発行日 2023-08-25 13:31:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ME パーマリンク