要約
最近の推論方法 (思考連鎖、含意推論など) は、言語モデル (LM) が単一の質問にどのように答えるかをユーザーが理解するのに役立ちますが、質問のトピックに関する LM の全体的な理解や「理論」を明らかにすることはほとんどありません。
そのため、モデルを信頼するのは依然として困難です。
私たちの目標は、そのような理論 – ここではマイクロ理論 (論理的マイクロ理論の言語学的類似物) と呼ばれる – を、トピックに関する LM の中核知識をカプセル化した一連の文として具体化することです。
これらのステートメントは体系的に連携して、一連の質問に対する回答を導き出し、信頼を生み出し、パフォーマンスを向上させます。
私たちのアプローチは、まずトレーニングの質問に対する回答を伴う (モデルが生成した) 文をナレッジ ストアに入力し、次にそれらを抽出して、簡潔で一般的で冗長性のないコアとなるミクロ理論を抽出することです。
我々は、ミクロ理論が一般的なコーパス (例: Wikipedia) に追加されると、必ずしもコーパスに存在しない重要な時事的な情報を提供し、その答えを検証可能な知識に基づいて根拠付けるモデルの能力 (つまり、答えがどのように体系的に示されるかを示す) の両方を向上させることができることを示します。
コーパス内の文書に含まれる、完全に根拠のある回答が最大 +8% 増加)、およびそれらの根拠のある回答の精度 (絶対 +8% まで)。
また、医療分野における人による評価では、抽出されたミクロ理論には、抽出されていない知識ストアよりも、局所的に重要な事実が大幅に高い濃度で含まれていることも示されています。
最後に、$p$-relevance の概念を使用して、(データセットによって特徴付けられる) トピックのミクロ理論の範囲を定量化できることを示します。
これらを総合すると、ミクロ理論は LM のトピック関連知識の効率的な蒸留であり、既存のコーパスを有効に拡張でき、パフォーマンスの向上と、トピックに関するモデルの知識への解釈可能で検証可能な窓の両方を提供できることが示唆されます。
要約(オリジナル)
Recent reasoning methods (e.g., chain-of-thought, entailment reasoning) help users understand how language models (LMs) answer a single question, but they do little to reveal the LM’s overall understanding, or ‘theory,’ about the question’s topic, making it still hard to trust the model. Our goal is to materialize such theories – here called microtheories (a linguistic analog of logical microtheories) – as a set of sentences encapsulating an LM’s core knowledge about a topic. These statements systematically work together to entail answers to a set of questions to both engender trust and improve performance. Our approach is to first populate a knowledge store with (model-generated) sentences that entail answers to training questions and then distill those down to a core microtheory that is concise, general, and non-redundant. We show that, when added to a general corpus (e.g., Wikipedia), microtheories can supply critical, topical information not necessarily present in the corpus, improving both a model’s ability to ground its answers to verifiable knowledge (i.e., show how answers are systematically entailed by documents in the corpus, fully grounding up to +8% more answers), and the accuracy of those grounded answers (up to +8% absolute). We also show that, in a human evaluation in the medical domain, our distilled microtheories contain a significantly higher concentration of topically critical facts than the non-distilled knowledge store. Finally, we show we can quantify the coverage of a microtheory for a topic (characterized by a dataset) using a notion of $p$-relevance. Together, these suggest that microtheories are an efficient distillation of an LM’s topic-relevant knowledge, that they can usefully augment existing corpora, and can provide both performance gains and an interpretable, verifiable window into the model’s knowledge of a topic.
arxiv情報
著者 | Nathaniel Weir,Bhavana Dalvi Mishra,Orion Weller,Oyvind Tafjord,Sam Hornstein,Alexander Sabol,Peter Jansen,Benjamin Van Durme,Peter Clark |
発行日 | 2024-12-24 03:23:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google