Primacy Effect of ChatGPT

要約

ChatGPT などの命令調整された大規模言語モデル (LLM) は、識別自然言語理解 (NLU) タスクでのゼロショット パフォーマンスを約束します。
これには、質問と選択する候補ラベルを含むプロンプトを使用して LLM にクエリを実行することが含まれます。
ChatGPT の質問応答機能は、人間が書いた大量のテキストに対する事前トレーニングと、その後の人間の好みに基づく微調整から生ま​​れます。
この論文では、ChatGPT の優先効果、つまり、より早い位置にあるラベルを答えとして選択する傾向を研究します。
主な発見は 2 つあります。 i) ChatGPT の決定は、プロンプト内のラベルの順序に影響されます。
ii) ChatGPT は、より早い位置にあるラベルを答えとして選択する可能性が明らかに高くなります。
私たちの実験と分析が、より信頼性の高い ChatGPT ベースのソリューションを構築するためのさらなる洞察を提供することを願っています。
ソースコードは https://github.com/wangywUST/PrimacyEffectGPT で公開しています。

要約(オリジナル)

Instruction-tuned large language models (LLMs), such as ChatGPT, have led to promising zero-shot performance in discriminative natural language understanding (NLU) tasks. This involves querying the LLM using a prompt containing the question, and the candidate labels to choose from. The question-answering capabilities of ChatGPT arise from its pre-training on large amounts of human-written text, as well as its subsequent fine-tuning on human preferences, which motivates us to ask: Does ChatGPT also inherits humans’ cognitive biases? In this paper, we study the primacy effect of ChatGPT: the tendency of selecting the labels at earlier positions as the answer. We have two main findings: i) ChatGPT’s decision is sensitive to the order of labels in the prompt; ii) ChatGPT has a clearly higher chance to select the labels at earlier positions as the answer. We hope that our experiments and analyses provide additional insights into building more reliable ChatGPT-based solutions. We release the source code at https://github.com/wangywUST/PrimacyEffectGPT.

arxiv情報

著者 Yiwei Wang,Yujun Cai,Muhao Chen,Yuxuan Liang,Bryan Hooi
発行日 2024-05-14 17:17:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク