Mitigating Selection Bias with Node Pruning and Auxiliary Options

要約

大規模言語モデル (LLM) は、多肢選択式の質問に回答するときに、特定の選択肢を不当に優先することがよくあり、LLM で自動化されたシステムに重大な信頼性の懸念が生じます。
この選択バイアスの問題を軽減するために、以前のソリューションではバイアス除去手法を利用してモデルの入力および/または出力を調整していました。
対照的に、私たちの研究では、モデルの選択バイアスの内部表現を調査します。
具体的には、バイアスに寄与する線形層パラメーターを除去する、新しいバイアス除去アプローチであるバイアス ノード プルーニング (BNP) を導入します。
さらに、バイアス除去のためのシンプルかつ効果的な入力変更手法である補助オプション注入 (AOI) を紹介します。これはブラックボックス LLM とも互換性があります。
選択バイアスをより体系的に評価するために、既存の指標をレビューし、不均衡のラベル付けに一般的に使用される指標の鈍感さに対処する Choice Kullback-Leibler Divergence (CKLD) を導入します。
実験では、私たちの方法が 3 つの LLM に適用された場合に堅牢であり、さまざまなデータセットに適応できることが示されています。

要約(オリジナル)

Large language models (LLMs) often show unwarranted preference for certain choice options when responding to multiple-choice questions, posing significant reliability concerns in LLM-automated systems. To mitigate this selection bias problem, previous solutions utilized debiasing methods to adjust the model’s input and/or output. Our work, in contrast, investigates the model’s internal representation of the selection bias. Specifically, we introduce a novel debiasing approach, Bias Node Pruning (BNP), which eliminates the linear layer parameters that contribute to the bias. Furthermore, we present Auxiliary Option Injection (AOI), a simple yet effective input modification technique for debiasing, which is compatible even with black-box LLMs. To provide a more systematic evaluation of selection bias, we review existing metrics and introduce Choice Kullback-Leibler Divergence (CKLD), which addresses the insensitivity of the commonly used metrics to label imbalance. Experiments show that our methods are robust and adaptable across various datasets when applied to three LLMs.

arxiv情報

著者 Hyeong Kyu Choi,Weijie Xu,Chi Xue,Stephanie Eckman,Chandan K. Reddy
発行日 2024-09-27 15:53:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク