Context-faithful Prompting for Large Language Models

要約

大規模言語モデル (LLM) は、世界の事実に関するパラメトリックな知識をエンコードし、知識主導の NLP タスクで優れたパフォーマンスを示しています。
ただし、パラメトリック知識への依存により、コンテキストの手がかりを見落とす可能性があり、コンテキスト依存の NLP タスク (知識獲得タスクなど) で誤った予測につながる可能性があります。
この論文では、知識の衝突と棄権による予測という2つの側面で、LLMの文脈上の忠実性を評価し、強化しようとしています。
慎重に設計されたプロンプト戦略を使用して、LLM の忠実度を大幅に改善できることを示します。
特に、意見に基づくプロンプトと反事実のデモンストレーションが最も効果的な方法であると認識しています。
意見ベースのプロンプトは、ナレーターの発言としてコンテキストを再構成し、ナレーターの意見について尋ねます。一方、反事実デモンストレーションは、虚偽の事実を含むインスタンスを使用して、知識の対立状況での忠実度を向上させます。
どちらの技術も、追加のトレーニングは必要ありません。
2 つの標準的な NLP タスク、機械読み取り理解と関係抽出の 3 つのデータセットで実験を行い、その結果、コンテキストへの忠実度が大幅に向上したことが示されました。

要約(オリジナル)

Large language models (LLMs) encode parametric knowledge about world facts and have shown remarkable performance in knowledge-driven NLP tasks. However, their reliance on parametric knowledge may cause them to overlook contextual cues, leading to incorrect predictions in context-sensitive NLP tasks (e.g., knowledge acquisition tasks). In this paper, we seek to assess and enhance LLMs’ contextual faithfulness in two aspects: knowledge conflict and prediction with abstention. We demonstrate that LLMs’ faithfulness can be significantly improved using carefully designed prompting strategies. In particular, we identify opinion-based prompts and counterfactual demonstrations as the most effective methods. Opinion-based prompts reframe the context as a narrator’s statement and inquire about the narrator’s opinions, while counterfactual demonstrations use instances containing false facts to improve faithfulness in knowledge conflict situations. Neither technique requires additional training. We conduct experiments on three datasets of two standard NLP tasks, machine reading comprehension and relation extraction, and the results demonstrate significant improvement in faithfulness to contexts.

arxiv情報

著者 Wenxuan Zhou,Sheng Zhang,Hoifung Poon,Muhao Chen
発行日 2023-03-20 17:54:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク