要約
大規模言語モデル (LLM) のパフォーマンスにおける形式の偏りを調査する最初の体系的な評価を紹介します。
私たちのアプローチは、パフォーマンスを確実かつ正確に評価するために、形式の制約の下で評価指標の 2 つのカテゴリを区別します。1 つは形式の制約が遵守されている場合のパフォーマンスを測定し、もう 1 つは制約の遵守に関係なくパフォーマンスを評価します。
次に、LLM のフォーマットバイアスを測定するための指標を定義し、それを軽減するための効果的な戦略を確立します。
続いて、広く使用されている 15 の形式をカバーする、多肢選択式の質問と回答、ラッピング、リスト、マッピングの 4 つの一般的に使用されるカテゴリにわたる、経験的な形式バイアス評価を示します。
8 世代タスクに対する私たちの評価により、最先端の LLM にわたる重大なフォーマットの偏りが明らかになりました。
さらに、フォーマット間で LLM のフォーマット命令追従機能を改善すると、フォーマットの偏りが軽減される可能性があることも発見しました。
評価結果に基づいて、フォーマットの偏りを軽減するために、合成フォーマット データ技術を使用したプロンプトと微調整を研究します。
私たちの方法は、ラッピング形式間の ChatGPT のパフォーマンスの差異を 235.33 から 0.71 (%$^2$) に減らすことに成功しました。
要約(オリジナル)
We present the first systematic evaluation examining format bias in performance of large language models (LLMs). Our approach distinguishes between two categories of an evaluation metric under format constraints to reliably and accurately assess performance: one measures performance when format constraints are adhered to, while the other evaluates performance regardless of constraint adherence. We then define a metric for measuring the format bias of LLMs and establish effective strategies to reduce it. Subsequently, we present our empirical format bias evaluation spanning four commonly used categories — multiple-choice question-answer, wrapping, list, and mapping — covering 15 widely-used formats. Our evaluation on eight generation tasks uncovers significant format bias across state-of-the-art LLMs. We further discover that improving the format-instruction following capabilities of LLMs across formats potentially reduces format bias. Based on our evaluation findings, we study prompting and fine-tuning with synthesized format data techniques to mitigate format bias. Our methods successfully reduce the variance in ChatGPT’s performance among wrapping formats from 235.33 to 0.71 (%$^2$).
arxiv情報
著者 | Do Xuan Long,Hai Nguyen Ngoc,Tiviatis Sim,Hieu Dao,Shafiq Joty,Kenji Kawaguchi,Nancy F. Chen,Min-Yen Kan |
発行日 | 2024-08-16 10:45:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google