要約
因果推論は、変数間の因果関係を捉えることにより、自然言語処理 (NLP) モデルの予測精度、公平性、堅牢性、および説明可能性を向上させる可能性を示しています。
生成大規模言語モデル (LLM) の出現は、特に高度な推論機能を通じて、さまざまな NLP ドメインに大きな影響を与えました。
この調査は、LLM の推論能力の理解と向上、LLM の公平性と安全性の問題への対処、説明による LLM の補完、およびマルチモダリティの処理という分野で、因果関係の観点から LLM を評価および改善することに焦点を当てています。
一方、LLM の強力な推論能力は、因果関係の発見と因果効果の推定を支援することにより、因果推論の分野に貢献することができます。
このレビューでは、因果推論フレームワークと LLM の間の相互作用を両方の観点から調査し、より高度で公平な人工知能システムの開発を促進するためのそれらの集合的な可能性を強調しています。
要約(オリジナル)
Causal inference has shown potential in enhancing the predictive accuracy, fairness, robustness, and explainability of Natural Language Processing (NLP) models by capturing causal relationships among variables. The emergence of generative Large Language Models (LLMs) has significantly impacted various NLP domains, particularly through their advanced reasoning capabilities. This survey focuses on evaluating and improving LLMs from a causal view in the following areas: understanding and improving the LLMs’ reasoning capacity, addressing fairness and safety issues in LLMs, complementing LLMs with explanations, and handling multimodality. Meanwhile, LLMs’ strong reasoning capacities can in turn contribute to the field of causal inference by aiding causal relationship discovery and causal effect estimations. This review explores the interplay between causal inference frameworks and LLMs from both perspectives, emphasizing their collective potential to further the development of more advanced and equitable artificial intelligence systems.
arxiv情報
著者 | Xiaoyu Liu,Paiheng Xu,Junda Wu,Jiaxin Yuan,Yifan Yang,Yuhang Zhou,Fuxiao Liu,Tianrui Guan,Haoliang Wang,Tong Yu,Julian McAuley,Wei Ai,Furong Huang |
発行日 | 2024-03-14 17:47:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google