要約
知識集約型の言語理解タスクでは、言語モデル (LM) が関連するコンテキストを統合し、不完全な知識や古い知識などの固有の弱点を軽減する必要があります。
それにもかかわらず、事前トレーニング中に学習した既存の LM の記憶と矛盾する可能性があるため、LM は提供されたコンテキストを無視することが多いことが研究で示されています。
さらに、メモリ内競合と呼ばれる、競合する知識が LM のパラメータにすでに存在している可能性があります。
既存の研究では、2 つのタイプの知識の対立が単独でのみ研究されてきました。
私たちは、メモリ内競合 (の程度) が、LM によるコンテキスト メモリ競合の処理に影響を与える可能性があると推測しています。
これを研究するために、DYNAMICQA データセットを導入します。このデータセットには、事実がさまざまな時間周波数で変化する可能性がある時間的な動的性質を持つ事実と、視点に応じて変化する可能性がある議論の余地のある動的事実が含まれています。
DYNAMICQA は、現実世界の知識の衝突を初めて組み込み、さまざまな種類の知識の衝突間の関連性を研究するためのコンテキストを提供します。
提案されたデータセットを使用して、メモリ内競合を測定するための不確実性の使用を評価し、LM のセマンティック出力を揺さぶるコンテキストの能力を評価する新しい Coherent Persuasion (CP) スコアを導入します。
私たちの広範な実験により、変化する可能性の低い静的な事実は、一時的な議論の余地のある事実に比べて、追加のコンテキストによってより簡単に更新されることが明らかになりました。
要約(オリジナル)
Knowledge-intensive language understanding tasks require Language Models (LMs) to integrate relevant context, mitigating their inherent weaknesses, such as incomplete or outdated knowledge. Nevertheless, studies indicate that LMs often ignore the provided context as it can conflict with the pre-existing LM’s memory learned during pre-training. Moreover, conflicting knowledge can already be present in the LM’s parameters, termed intra-memory conflict. Existing works have studied the two types of knowledge conflicts only in isolation. We conjecture that the (degree of) intra-memory conflicts can in turn affect LM’s handling of context-memory conflicts. To study this, we introduce the DYNAMICQA dataset, which includes facts with a temporal dynamic nature where a fact can change with a varying time frequency and disputable dynamic facts, which can change depending on the viewpoint. DYNAMICQA is the first to include real-world knowledge conflicts and provide context to study the link between the different types of knowledge conflicts. With the proposed dataset, we assess the use of uncertainty for measuring the intra-memory conflict and introduce a novel Coherent Persuasion (CP) score to evaluate the context’s ability to sway LM’s semantic output. Our extensive experiments reveal that static facts, which are unlikely to change, are more easily updated with additional context, relative to temporal and disputable facts.
arxiv情報
著者 | Sara Vera Marjanović,Haeun Yu,Pepa Atanasova,Maria Maistro,Christina Lioma,Isabelle Augenstein |
発行日 | 2024-07-24 06:06:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google