要約
補助情報は大規模言語モデル (LLM) を強化するための鍵となっていますが、LLM がこれらのコンテキスト、特に LLM によって生成されたコンテキストと外部ソースから取得されたコンテキストをどのようにマージするかについてはほとんど知られていません。
これを調査するために、生成されたコンテキストと取得されたコンテキストの統合から得られる LLM の応答が、生成されたコンテキストと取得されたコンテキストのいずれかに起因するかどうかを識別する体系的なフレームワークを定式化します。
応答の起源を簡単に追跡するために、矛盾するコンテキストを含むデータセットを構築します。つまり、各質問は生成されたコンテキストと取得されたコンテキストの両方とペアになっていますが、正解が含まれるのはそのうちの 1 つだけです。
私たちの実験により、いくつかの LLM (GPT-4/3.5 および Llama2) には、たとえ間違った情報が提供されている場合でも、生成されたコンテキストを優先する重大な偏りが明らかになりました。
さらに、このバイアスに寄与する 2 つの重要な要因を特定します。i) LLM によって生成されたコンテキストは通常、質問との類似性がより高く、選択される可能性が高くなります。
ii) 取得されたコンテキストで使用されるセグメンテーション プロセスによりコンテキストの完全性が損なわれ、LLM でのコンテキストの完全な利用が妨げられます。
私たちの分析は、LLM がどのように多様なコンテキストをマージするかについての理解を深め、LLM の現在の拡張方法を進歩させるための貴重な洞察を提供します。
要約(オリジナル)
While auxiliary information has become a key to enhancing Large Language Models (LLMs), relatively little is known about how LLMs merge these contexts, specifically contexts generated by LLMs and those retrieved from external sources. To investigate this, we formulate a systematic framework to identify whether LLMs’ responses, derived from the integration of generated and retrieved contexts, are attributed to either generated or retrieved contexts. To easily trace the origin of the response, we construct datasets with conflicting contexts, i.e., each question is paired with both generated and retrieved contexts, yet only one of them contains the correct answer. Our experiments reveal a significant bias in several LLMs (GPT-4/3.5 and Llama2) to favor generated contexts, even when they provide incorrect information. We further identify two key factors contributing to this bias: i) contexts generated by LLMs typically show greater similarity to the questions, increasing their likelihood of being selected; ii) the segmentation process used in retrieved contexts disrupts their completeness, thereby hindering their full utilization in LLMs. Our analysis enhances the understanding of how LLMs merge diverse contexts, offering valuable insights for advancing current augmentation methods for LLMs.
arxiv情報
著者 | Hexiang Tan,Fei Sun,Wanli Yang,Yuanzhuo Wang,Qi Cao,Xueqi Cheng |
発行日 | 2024-03-26 15:47:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google