要約
大規模言語モデル (LLM) はさまざまなアプリケーションで役立つようになり、特定のシナリオに合わせてこれらのモデルをカスタマイズすることがますます重要になっています。
LLM の基本コンポーネントであるシステム メッセージは、意図した目標を達成するようにモデルの動作をガイドする慎重に作成された命令で構成されています。
AI 主導のソリューションを最適化するシステム メッセージの可能性が認識されているにもかかわらず、LLM がシステム メッセージにどの程度従っているかを評価するための包括的なベンチマークが著しく欠如しています。
このギャップを埋めるために、既存の LLM の 3 つの制限 (制約違反、命令の誤判断、マルチターンの不安定性) に関してシステム メッセージ追従能力を体系的に分析するベンチマークである SysBench を紹介します。
具体的には、500 件のカスタマイズされたシステム メッセージや、さまざまなインタラクション関係をカバーする複数ターンのユーザー会話など、一般的な 6 種類の制約に基づいて評価データセットを手動で構築します。
さらに、モデルのパフォーマンスを測定するための包括的な評価プロトコルを開発します。
最後に、さまざまな既存の LLM にわたって広範な評価を実施し、システム メッセージで指定された指定された制約に従う能力を測定します。
この結果は、既存のモデルの長所と短所の両方を浮き彫りにし、今後の研究に向けた重要な洞察と方向性を提供します。
オープンソース ライブラリ SysBench は、https://github.com/PKU-Baichuan-MLSystemLab/SysBench で入手できます。
要約(オリジナル)
Large Language Models (LLMs) have become instrumental across various applications, with the customization of these models to specific scenarios becoming increasingly critical. System message, a fundamental component of LLMs, is consist of carefully crafted instructions that guide the behavior of model to meet intended goals. Despite the recognized potential of system messages to optimize AI-driven solutions, there is a notable absence of a comprehensive benchmark for evaluating how well LLMs follow system messages. To fill this gap, we introduce SysBench, a benchmark that systematically analyzes system message following ability in terms of three limitations of existing LLMs: constraint violation, instruction misjudgement and multi-turn instability. Specifically, we manually construct evaluation dataset based on six prevalent types of constraints, including 500 tailor-designed system messages and multi-turn user conversations covering various interaction relationships. Additionally, we develop a comprehensive evaluation protocol to measure model performance. Finally, we conduct extensive evaluation across various existing LLMs, measuring their ability to follow specified constraints given in system messages. The results highlight both the strengths and weaknesses of existing models, offering key insights and directions for future research. The open source library SysBench is available at https://github.com/PKU-Baichuan-MLSystemLab/SysBench.
arxiv情報
著者 | Yanzhao Qin,Tao Zhang,Tao Zhang,Yanjun Shen,Wenjing Luo,Haoze Sun,Yan Zhang,Yujing Qiao,Weipeng Chen,Zenan Zhou,Wentao Zhang,Bin Cui |
発行日 | 2024-10-22 15:07:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google