RefuteBench: Evaluating Refuting Instruction-Following for Large Language Models

要約

大規模言語モデル (LLM) の適用範囲はますます拡大しています。
実際の使用では、ユーザーは、フィードバックに従って応答を完了できる応答性の高いモデルを期待して、モデルの出力に基づいてフィードバックを提供する可能性があります。
モデルがユーザーの反論のフィードバックに適切に対応し、一貫して実行できるかどうかは、十分に分析されていません。
これを踏まえて、この文書では、質問応答、機械翻訳、電子メール作成などのタスクをカバーする包括的なベンチマークである RefuteBench を提案します。
この評価の目的は、モデルが指示への反論という形でフィードバックを積極的に受け入れることができるかどうか、また会話を通じてユーザーの要求に一貫して従うことができるかどうかを評価することです。
私たちは多数の LLM の評価を実施しましたが、LLM は頑固である、つまり内部知識に偏り、ユーザーのフィードバックに従わないことが多いことがわかりました。
さらに、会話の長さが長くなると、モデルはユーザーが述べたフィードバックを徐々に忘れ、自分自身の応答に戻ります。
さらに、フィードバックに対するモデルの応答性を高めるためのシンプルかつ効果的な方法として、リコールアンドリピートプロンプトを提案します。

要約(オリジナル)

The application scope of large language models (LLMs) is increasingly expanding. In practical use, users might provide feedback based on the model’s output, hoping for a responsive model that can complete responses according to their feedback. Whether the model can appropriately respond to users’ refuting feedback and consistently follow through with execution has not been thoroughly analyzed. In light of this, this paper proposes a comprehensive benchmark, RefuteBench, covering tasks such as question answering, machine translation, and email writing. The evaluation aims to assess whether models can positively accept feedback in form of refuting instructions and whether they can consistently adhere to user demands throughout the conversation. We conduct evaluations on numerous LLMs and find that LLMs are stubborn, i.e. exhibit inclination to their internal knowledge, often failing to comply with user feedback. Additionally, as the length of the conversation increases, models gradually forget the user’s stated feedback and roll back to their own responses. We further propose a recall-and-repeat prompts as a simple and effective way to enhance the model’s responsiveness to feedback.

arxiv情報

著者 Jianhao Yan,Yun Luo,Yue Zhang
発行日 2024-07-24 06:50:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク