要約
大規模言語モデル (LLM) は、一般的なトピックに関する言語の理解と推論において成功を収めています。
ただし、ユーザーが指定した構造化データと、因果関係の意思決定などのコーパスの希少な概念に関する知識に基づいて推論する能力は、依然として限られています。
この研究では、オープンソースの LLM を LLM4Causal に微調整する可能性を探ります。LLM4Causal では、因果関係のあるタスクを特定し、対応する関数を実行し、ユーザーのクエリと提供されたデータセットに基づいて数値結果を解釈できます。
一方、我々は、より制御可能な GPT プロンプトのためのデータ生成プロセスを提案し、2 つの命令チューニング データセットを提示します: (1) 因果関係の問題の特定と因果関数呼び出しのための入力パラメータ抽出のための Causal-Retrieval-Bench、および (2) Causal-Interpret-Bench
文脈内の因果関係の解釈のために。
3 つのケーススタディで、LLM4Causal が因果関係の問題に対するエンドツーエンドのソリューションを提供し、わかりやすい答えを提供できることを示しました。
数値研究では、クエリが与えられた場合に正しい因果関係のタスクを特定する驚くべき能力があることも明らかになりました。
要約(オリジナル)
Large Language Models (LLMs) have shown their success in language understanding and reasoning on general topics. However, their capability to inference based on user-specified structured data and knowledge in corpus-rare concepts like causal decision-making is still limited. In this work, we explore the possibility of fine-tuning an open-sourced LLM into LLM4Causal, which can identify the causal task, execute a corresponding function, and interpret its numerical results based on users’ queries and the provided dataset. Meanwhile, we propose a data generation process for more controllable GPT prompting and present two instruction-tuning datasets: (1) Causal-Retrieval-Bench for causal problem identification and input parameter extraction for causal function calling and (2) Causal-Interpret-Bench for in-context causal interpretation. With three case studies, we showed that LLM4Causal can deliver end-to-end solutions for causal problems and provide easy-to-understand answers. Numerical studies also reveal that it has a remarkable ability to identify the correct causal task given a query.
arxiv情報
著者 | Haitao Jiang,Lin Ge,Yuhe Gao,Jianian Wang,Rui Song |
発行日 | 2023-12-29 21:54:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google