On Large Language Models’ Selection Bias in Multi-Choice Questions

要約

多肢選択質問 (MCQ) は、大規模言語モデル (LLM) の研究において一般的かつ重要なタスク形式として機能します。
私たちの研究は、LLM が MCQ に固有の「選択バイアス」を示すことを示しています。これは、特定の位置にあるオプション (「オプション C」など) を選択する LLM の好みを指します。
このバイアスはさまざまな LLM に蔓延しており、MCQ でのオプション ポジションの変更に対してパフォーマンスが脆弱になります。
選択バイアスを引き起こす主な原因の 1 つは、オプションの番号付け、つまり、オプションに関連付けられた ID シンボル A/B/C/D であることが判明しました。
選択バイアスを軽減するために、我々は PriDe と呼ばれる新しい方法を提案します。
PriDe はまず、観測されたモデルの予測分布を、オプションの内容に関する固有の予測とオプション ID に関する事前分布に分解します。
次に、少数のテスト サンプルのオプションの内容を並べ替えることによって事前確率を推定します。これは、後続のテスト サンプルの偏りを解消するために使用されます。
我々は、ラベルフリーの推論時間手法として、PriDe が強力なベースラインよりも効果的で計算効率の高いバイアス除去を実現することを実証します。
さらに、PriDe によって推定された事前確率がさまざまなドメインにわたってよく一般化されることを示し、より広範なシナリオにおけるその実用的な可能性を強調します。

要約(オリジナル)

Multi-choice questions (MCQs) serve as a common yet important task format in the research of large language models (LLMs). Our work shows that LLMs exhibit an inherent ‘selection bias’ in MCQs, which refers to LLMs’ preferences to select options located at specific positions (like ‘Option C’). This bias is prevalent across various LLMs, making their performance vulnerable to option position changes in MCQs. We identify that one primary cause resulting in selection bias is option numbering, i.e., the ID symbols A/B/C/D associated with the options. To mitigate selection bias, we propose a new method called PriDe. PriDe first decomposes the observed model prediction distribution into an intrinsic prediction over option contents and a prior distribution over option IDs. It then estimates the prior by permutating option contents on a small number of test samples, which is used to debias the subsequent test samples. We demonstrate that, as a label-free, inference-time method, PriDe achieves a more effective and computation-efficient debiasing than strong baselines. We further show that the priors estimated by PriDe generalize well across different domains, highlighting its practical potential in broader scenarios.

arxiv情報

著者 Chujie Zheng,Hao Zhou,Fandong Meng,Jie Zhou,Minlie Huang
発行日 2023-09-07 17:44:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク