Causal Discovery and Knowledge Injection for Contestable Neural Networks (with Appendices)

要約

ニューラル ネットワークは機械学習タスクの解決に効果的であることが証明されていますが、ニューラル ネットワークが関連する因果関係を学習するかどうかは不明であり、そのブラックボックスの性質により、モデラーが理解してデバッグすることが困難になります。
我々は、双方向の相互作用を可能にすることで、これらの問題を克服する新しい方法を提案します。これにより、ニューラルネットワークで強化されたマシンは、基礎となる学習された因果グラフを公開でき、人間は、因果グラフをマシンに再注入する前に、因果グラフを変更することでマシンに対抗できます。
学習されたモデルはグラフに準拠し、専門知識に準拠していることが保証されており、一部は事前に提供することもできます。
モデルの動作にウィンドウを構築し、知識の注入を可能にすることで、私たちの方法では、データから発見され、予測を裏付ける因果構造に基づいて、専門家がネットワークをデバッグできるようになります。
実際の表形式データと合成表形式データを使用した実験では、SOTA 正則化ネットワークと比較して、私たちの方法が予測パフォーマンスを最大 2.4 倍向上させながら、入力層で最大 7 倍小さい節約型ネットワークを生成することがわかりました。

要約(オリジナル)

Neural networks have proven to be effective at solving machine learning tasks but it is unclear whether they learn any relevant causal relationships, while their black-box nature makes it difficult for modellers to understand and debug them. We propose a novel method overcoming these issues by allowing a two-way interaction whereby neural-network-empowered machines can expose the underpinning learnt causal graphs and humans can contest the machines by modifying the causal graphs before re-injecting them into the machines. The learnt models are guaranteed to conform to the graphs and adhere to expert knowledge, some of which can also be given up-front. By building a window into the model behaviour and enabling knowledge injection, our method allows practitioners to debug networks based on the causal structure discovered from the data and underpinning the predictions. Experiments with real and synthetic tabular data show that our method improves predictive performance up to 2.4x while producing parsimonious networks, up to 7x smaller in the input layer, compared to SOTA regularised networks.

arxiv情報

著者 Fabrizio Russo,Francesca Toni
発行日 2023-08-01 11:21:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LG, stat.ML パーマリンク