要約
タイトル:RECKONING: Reasoning through Dynamic Knowledge Encoding
要約:
– 最近のtransformerベースの言語モデルの研究により、コンテキストの一部として提供される知識を推論することができることが示された。
– しかし、利用可能な知識はしばしば特定の質問に対するフィルタリングが行われていないため、不必要な情報が混入する可能性がある。
– このような状況では、モデルは必要な知識を区別することができず、推論が失敗することがある。
– このような推論の失敗に対処するため、提供されたコンテキストの知識をモデルのパラメータに取り込み、より堅牢に推論するアルゴリズム「RECKONING」を提案する。
– RECKONINGは、2階層の学習アルゴリズムであり、内側のループでモデルの重みを迅速に適応させ、外側のループで更新された重みを使用して推論する。
– 2つのマルチホップ推論データセットでの実験結果では、RECKONINGのパフォーマンスが、コンテキスト内推論のベースラインに比べて改善されたことが示された。また、長い推論チェーンに対しても一般化能力が向上し、コンテキスト内の妨害要因に対しても堅牢であり、同じ知識に対して複数の質問が行われた場合にも計算効率が向上することが示された。
要約(オリジナル)
Recent studies on transformer-based language models show that they can answer questions by reasoning over knowledge provided as part of the context (i.e., in-context reasoning). However, since the available knowledge is often not filtered for a particular question, in-context reasoning can be sensitive to distractor facts, additional content that is irrelevant to a question but that may be relevant for a different question (i.e., not necessarily random noise). In these situations, the model fails to distinguish the knowledge that is necessary to answer the question, leading to spurious reasoning and degraded performance. This reasoning failure contrasts with the model’s apparent ability to distinguish its contextual knowledge from all the knowledge it has memorized during pre-training. Following this observation, we propose teaching the model to reason more robustly by folding the provided contextual knowledge into the model’s parameters before presenting it with a question. Our method, RECKONING, is a bi-level learning algorithm that teaches language models to reason by updating their parametric knowledge through back-propagation, allowing them to then answer questions using the updated parameters. During training, the inner loop rapidly adapts a copy of the model weights to encode contextual knowledge into its parameters. In the outer loop, the model learns to uses the updated weights to reproduce and answer reasoning questions about the memorized knowledge. Our experiments on two multi-hop reasoning datasets show that RECKONING’s performance improves over the in-context reasoning baseline (by up to 4.5%). We also find that compared to in-context reasoning, RECKONING generalizes better to longer reasoning chains unseen during training, is more robust to distractors in the context, and is more computationally efficient when multiple questions are asked about the same knowledge.
arxiv情報
著者 | Zeming Chen,Gail Weiss,Eric Mitchell,Asli Celikyilmaz,Antoine Bosselut |
発行日 | 2023-05-10 17:54:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI