Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation

要約

知識集約型タスク (オープンドメインの質問応答 (QA) など) には、かなりの量の事実知識が必要であり、多くの場合、外部情報に支援を求めます。
最近、大規模言語モデル (LLM) (ChatGPT など) は、知識集約型タスクを含む世界の知識を使用して幅広いタスクを解決する際に優れた能力を発揮しています。
ただし、LLM が事実知識の境界をどの程度認識できるか、特に検索拡張を組み込んだときに LLM がどのように動作するかは依然として不明です。
この研究では、LLM の事実知識境界の初期分析と、オープンドメイン QA において検索拡張が LLM にどのような影響を与えるかを示します。
特に、私たちは 3 つの主要な調査質問に焦点を当て、QA のパフォーマンス、LLM の先験的判断、事後的判断を調査することによってそれらを分析します。
私たちは、LLM が質問に応答する能力とその応答の正確さに対して揺るぎない自信を持っているという証拠を示しています。
さらに、検索拡張は、LLM の知識境界に対する認識を高め、それによって判断能力を向上させる効果的なアプローチであることが証明されています。
さらに、LLM は回答を作成するときに提供された検索結果に依存する傾向がある一方で、これらの結果の質が信頼性に大きな影響を与えることもわかりました。
この作業を再現するコードは、https://github.com/RUCAIBox/LLM-Knowledge-Boundary で入手できます。

要約(オリジナル)

Knowledge-intensive tasks (e.g., open-domain question answering (QA)) require a substantial amount of factual knowledge and often rely on external information for assistance. Recently, large language models (LLMs) (e.g., ChatGPT), have demonstrated impressive prowess in solving a wide range of tasks with world knowledge, including knowledge-intensive tasks. However, it remains unclear how well LLMs are able to perceive their factual knowledge boundaries, particularly how they behave when incorporating retrieval augmentation. In this study, we present an initial analysis of the factual knowledge boundaries of LLMs and how retrieval augmentation affects LLMs on open-domain QA. Specially, we focus on three primary research questions and analyze them by examining QA performance, priori judgement and posteriori judgement of LLMs. We show evidence that LLMs possess unwavering confidence in their capabilities to respond to questions and the accuracy of their responses. Furthermore, retrieval augmentation proves to be an effective approach in enhancing LLMs’ awareness of knowledge boundaries, thereby improving their judgemental abilities. Additionally, we also find that LLMs have a propensity to rely on the provided retrieval results when formulating answers, while the quality of these results significantly impacts their reliance. The code to reproduce this work is available at https://github.com/RUCAIBox/LLM-Knowledge-Boundary.

arxiv情報

著者 Ruiyang Ren,Yuhao Wang,Yingqi Qu,Wayne Xin Zhao,Jing Liu,Hao Tian,Hua Wu,Ji-Rong Wen,Haifeng Wang
発行日 2023-07-23 16:52:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク