要約
文脈内学習(ICL)のための様々な設計設定、例えば文脈内事例の選択と順序は、タスクの理解を反映することなく、モデルを特定の予測に偏らせる可能性がある。多くの研究がこのようなデザイン選択について論じているが、それらを分類し、その影響を軽減するための系統的な研究はほとんどない。本研究では、テキスト分類のためのICLにおける3種類のラベルバイアスの類型を定義する:バニララベルバイアス、コンテキストラベルバイアス、ドメインラベルバイアス(これは我々が初めて概念化し検出したものである)。 我々の分析では、先行するラベルバイアスのキャリブレーション手法は、3つのタイプのバイアス全てに対処するには不十分であることを示している。特に、ドメインラベルバイアスは、LLMがコンテキスト内の例の選択に関係なく、多くのタスクでランダムレベルのパフォーマンスに制限される。これらのバイアスの影響を軽減するために、タスクコーパスからランダムなドメイン内単語を用いて言語モデルのラベルバイアスを推定する、シンプルなバイアス校正法を提案する。予測を行う際にこの推定バイアスを制御した後、我々の新しいドメインコンテキスト校正は、幅広いタスクにおいてGPT-JとGPT-3のICL性能を大幅に改善する。その効果は、ドメインラベルのバイアスが大きいタスク(Macro-F1では最大37%)で顕著である。さらに、我々の結果は、異なるスケール、事前学習方法、手動で設計されたタスク指示を持つモデルにも一般化され、ICLにおけるラベルバイアスの普及を示している。
要約(オリジナル)
Various design settings for in-context learning (ICL), such as the choice and order of the in-context examples, can bias a model toward a particular prediction without being reflective of an understanding of the task. While many studies discuss these design choices, there have been few systematic investigations into categorizing them and mitigating their impact. In this work, we define a typology for three types of label biases in ICL for text classification: vanilla-label bias, context-label bias, and domain-label bias (which we conceptualize and detect for the first time). Our analysis demonstrates that prior label bias calibration methods fall short of addressing all three types of biases. Specifically, domain-label bias restricts LLMs to random-level performance on many tasks regardless of the choice of in-context examples. To mitigate the effect of these biases, we propose a simple bias calibration method that estimates a language model’s label bias using random in-domain words from the task corpus. After controlling for this estimated bias when making predictions, our novel domain-context calibration significantly improves the ICL performance of GPT-J and GPT-3 on a wide range of tasks. The gain is substantial on tasks with large domain-label bias (up to 37% in Macro-F1). Furthermore, our results generalize to models with different scales, pretraining methods, and manually-designed task instructions, showing the prevalence of label biases in ICL.
arxiv情報
著者 | Yu Fei,Yifan Hou,Zeming Chen,Antoine Bosselut |
発行日 | 2023-08-04 15:43:19+00:00 |
arxivサイト | arxiv_id(pdf) |