Integrating Large Language Models in Causal Discovery: A Statistical Causal Approach

要約

実際の統計的因果発見 (SCD) では、背景知識の体系的な取得における課題が認識されているにもかかわらず、ドメインの専門知識をアルゴリズムに制約として埋め込むことが、一貫した意味のある因果モデルを作成するために重要であると広く受け入れられています。
これらの課題を克服するために、本論文は、SCD手法と大規模言語モデル(LLM)を用いた知識ベース因果推論(KBCI)を、LLMに対する「統計的因果プロンプティング(SCP)」を通じて合成する、因果推論のための新しい方法論を提案する。
SCD の事前知識の強化。
実験により、GPT-4 により、LLM-KBCI の出力と、LLM-KBCI からの事前知識を備えた SCD 結果がグラウンド トゥルースに近づく可能性があり、GPT-4 が SCP を受けると、SCD 結果がさらに改善される可能性があることが明らかになりました。
さらに、未公開の実世界のデータセットを使用することで、たとえこのデータセットが LLM のトレーニング データに含まれていなかったとしても、LLM によって提供される背景知識によってこのデータセットの SCD を改善できることを実証しました。
したがって、提案されたアプローチは、データセットのバイアスや制限などの課題に対処でき、多様な科学分野にわたってデータ駆動型の因果推論を改善する LLM の可能性を示しています。

要約(オリジナル)

In practical statistical causal discovery (SCD), embedding domain expert knowledge as constraints into the algorithm is widely accepted as significant for creating consistent meaningful causal models, despite the recognized challenges in systematic acquisition of the background knowledge. To overcome these challenges, this paper proposes a novel methodology for causal inference, in which SCD methods and knowledge based causal inference (KBCI) with a large language model (LLM) are synthesized through “statistical causal prompting (SCP)” for LLMs and prior knowledge augmentation for SCD. Experiments have revealed that GPT-4 can cause the output of the LLM-KBCI and the SCD result with prior knowledge from LLM-KBCI to approach the ground truth, and that the SCD result can be further improved, if GPT-4 undergoes SCP. Furthermore, by using an unpublished real-world dataset, we have demonstrated that the background knowledge provided by the LLM can improve SCD on this dataset, even if this dataset has never been included in the training data of the LLM. The proposed approach can thus address challenges such as dataset biases and limitations, illustrating the potential of LLMs to improve data-driven causal inference across diverse scientific domains.

arxiv情報

著者 Masayuki Takayama,Tadahisa Okuda,Thong Pham,Tatsuyoshi Ikenoue,Shingo Fukuma,Shohei Shimizu,Akiyoshi Sannai
発行日 2024-05-15 15:16:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ME, stat.ML パーマリンク