How Language Models Prioritize Contextual Grammatical Cues?

要約

変換器ベースの言語モデルは、文脈情報を効果的に捉えて利用する優れた能力を示している。主語と動詞の一致や共参照の解消のようなターゲットタスクに対する単一の文脈手がかりの寄与を定量化し、追跡するために様々な分析技術が使用されてきたが、文脈に複数の関連する手がかりが利用可能なシナリオは未解明のままである。本論文では、複数の性別の手がかりとなる単語が存在し、それぞれが独立に対象の性別代名詞を曖昧性解消できる場合に、言語モデルがどのように性別の一致を扱うかを調査する。我々は2つの広く使われているTransformerベースのモデルを分析する:エンコーダベースのBERTとデコーダベースのGPT-2である。我々の分析は、モデル内の情報の流れを追跡する文脈混合分析と、モデルの予測に対するキューの影響を測定する活性化パッチングの変形という、2つの相補的なアプローチを用いる。その結果、BERTは文脈の最初の手がかりを優先してターゲットとなる単語表現とモデルの予測を形成する傾向があるのに対し、GPT-2は最後の手がかりに依存する傾向があることがわかった。この結果は、エンコーダーベースとデコーダーベースのモデルが、予測に文脈情報をどのように優先し、利用するかに顕著な違いがあることを示している。

要約(オリジナル)

Transformer-based language models have shown an excellent ability to effectively capture and utilize contextual information. Although various analysis techniques have been used to quantify and trace the contribution of single contextual cues to a target task such as subject-verb agreement or coreference resolution, scenarios in which multiple relevant cues are available in the context remain underexplored. In this paper, we investigate how language models handle gender agreement when multiple gender cue words are present, each capable of independently disambiguating a target gender pronoun. We analyze two widely used Transformer-based models: BERT, an encoder-based, and GPT-2, a decoder-based model. Our analysis employs two complementary approaches: context mixing analysis, which tracks information flow within the model, and a variant of activation patching, which measures the impact of cues on the model’s prediction. We find that BERT tends to prioritize the first cue in the context to form both the target word representations and the model’s prediction, while GPT-2 relies more on the final cue. Our findings reveal striking differences in how encoder-based and decoder-based models prioritize and use contextual information for their predictions.

arxiv情報

著者 Hamidreza Amirzadeh,Afra Alishahi,Hosein Mohebbi
発行日 2024-10-04 14:09:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク