Improving Causal Reasoning in Large Language Models: A Survey

要約

因果推論 (CR) はインテリジェンスの重要な側面であり、問​​題解決、意思決定、世界の理解に不可欠です。
大規模言語モデル (LLM) は出力の論理的根拠を生成できますが、因果関係の推論を確実に実行する能力は依然として不確実であり、因果関係の深い理解を必要とするタスクでは不十分なことがよくあります。
この調査では、因果推論のための LLM を強化することを目的とした研究の包括的なレビューを提供します。
LLM の役割に基づいて既存の手法を分類します。推論エンジンとして、または従来の CR 手法に知識やデータを提供するヘルパーとしてのいずれかです。その後、各カテゴリの手法について詳細に説明します。
次に、さまざまな因果推論タスクにおける LLM のパフォーマンスを評価し、重要な結果と詳細な分析を提供します。
最後に、現在の研究からの洞察を提供し、将来の研究の有望な方向性を強調します。
私たちは、この研究が包括的なリソースとして機能し、LLM による因果推論のさらなる進歩を促進することを目指しています。
リソースは https://github.com/chendl02/Awesome-LLM-causal-reasoning で入手できます。

要約(オリジナル)

Causal reasoning (CR) is a crucial aspect of intelligence, essential for problem-solving, decision-making, and understanding the world. While large language models (LLMs) can generate rationales for their outputs, their ability to reliably perform causal reasoning remains uncertain, often falling short in tasks requiring a deep understanding of causality. In this survey, we provide a comprehensive review of research aimed at enhancing LLMs for causal reasoning. We categorize existing methods based on the role of LLMs: either as reasoning engines or as helpers providing knowledge or data to traditional CR methods, followed by a detailed discussion of the methodologies in each category. We then evaluate the performance of LLMs on various causal reasoning tasks, providing key findings and in-depth analysis. Finally, we provide insights from current studies and highlight promising directions for future research. We aim for this work to serve as a comprehensive resource, fostering further advancements in causal reasoning with LLMs. Resources are available at https://github.com/chendl02/Awesome-LLM-causal-reasoning.

arxiv情報

著者 Longxuan Yu,Delin Chen,Siheng Xiong,Qingyang Wu,Qingzhen Liu,Dawei Li,Zhikai Chen,Xiaoze Liu,Liangming Pan
発行日 2024-11-06 15:49:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク