要約
大規模言語モデル (LLM) は、医学、科学、法律など、社会に影響を与える多数の領域の概念間の因果関係を分析する優れた能力を発揮します。
さまざまな因果関係の発見および推論タスクにおける LLM のパフォーマンスに関する最近の研究により、因果関係の古典的な 3 段階のフレームワークに新しいはしごが誕生しました。
この論文では、知識ベースの LLM 因果分析とデータ主導の因果構造学習を組み合わせた新しいフレームワークを提案することにより、LLM 主導の因果発見の現在の研究を前進させます。
LLM を単なるクエリ ツール以上のものにし、自然かつ新しい因果律則を発見する際にその力を活用するために、私たちは既存の因果メカニズムに関する LLM の貴重な専門知識を客観的データの統計分析に統合し、因果構造学習のための斬新で実用的なベースラインを構築します。
与えられた変数から因果グラフを抽出し、データから因果構造を回復する際の LLM の事前因果関係の影響を評価するように設計されたプロンプトのユニバーサル セットを導入します。
私たちは、データから復元された因果構造の品質に関する LLM 専門知識の大幅な強化を実証すると同時に、重大な課題や問題点、およびそれらに対処するための潜在的なアプローチも特定します。
先駆的な研究として、この論文は、LLM が古典的な因果関係の発見と推論に切り開いている新たな境地を強調し、データ駆動型の因果分析における LLM 機能の広範な採用を奨励することを目的としています。
要約(オリジナル)
Large Language Models (LLMs) exhibit exceptional abilities for causal analysis between concepts in numerous societally impactful domains, including medicine, science, and law. Recent research on LLM performance in various causal discovery and inference tasks has given rise to a new ladder in the classical three-stage framework of causality. In this paper, we advance the current research of LLM-driven causal discovery by proposing a novel framework that combines knowledge-based LLM causal analysis with data-driven causal structure learning. To make LLM more than a query tool and to leverage its power in discovering natural and new laws of causality, we integrate the valuable LLM expertise on existing causal mechanisms into statistical analysis of objective data to build a novel and practical baseline for causal structure learning. We introduce a universal set of prompts designed to extract causal graphs from given variables and assess the influence of LLM prior causality on recovering causal structures from data. We demonstrate the significant enhancement of LLM expertise on the quality of recovered causal structures from data, while also identifying critical challenges and issues, along with potential approaches to address them. As a pioneering study, this paper aims to emphasize the new frontier that LLMs are opening for classical causal discovery and inference, and to encourage the widespread adoption of LLM capabilities in data-driven causal analysis.
arxiv情報
著者 | Taiyu Ban,Lyvzhou Chen,Xiangyu Wang,Huanhuan Chen |
発行日 | 2023-06-29 12:48:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google