Learning Syntax Without Planting Trees: Understanding When and Why Transformers Generalize Hierarchically

要約

自然言語データでトレーニングされたトランスフォーマーは、その階層構造を学習し、構造的なバイアスを明示的にエンコードすることなく、目に見えない構文構造を持つ文に一般化することが示されています。
この研究では、このような一般化動作を引き起こす可能性がある変圧器モデルとそのトレーニングにおける誘導バイアスの原因を調査します。
私たちは、複数の合成データセットとさまざまなトレーニング目的でトレーニングされたトランスフォーマー モデルを広範囲に実験し、他の目的 (例: トレーニング目標) が異なることを示しています。
シーケンスツーシーケンス モデリング、プレフィックス言語モデリングは、階層的一般化につながることができないことがよくありましたが、言語モデリングの目的でトレーニングされたモデルは、階層的に一般化することを一貫して学習しました。
次に、言語モデリングの目的で訓練されたトランスフォーマーが階層構造をどのようにエンコードするかを研究するために枝刈り実験を実施します。
枝刈りを行うと、モデル内にさまざまな汎化動作を持つサブネットワークが混在していることがわかります (階層構造と線形順序に対応するサブネットワーク)。
最後に、トランスフォーマが階層的一般化を好むかどうかをさらに明らかにするためにベイジアンの観点を採用します。トランスフォーマがデータセット上で階層的に一般化するかどうかと、そのデータセットの最も単純な説明が線形一般化を示す通常の文法と比較して階層文法によって提供されるかどうかとの間の相関関係を確立します。

要約(オリジナル)

Transformers trained on natural language data have been shown to learn its hierarchical structure and generalize to sentences with unseen syntactic structures without explicitly encoding any structural bias. In this work, we investigate sources of inductive bias in transformer models and their training that could cause such generalization behavior to emerge. We extensively experiment with transformer models trained on multiple synthetic datasets and with different training objectives and show that while other objectives e.g. sequence-to-sequence modeling, prefix language modeling, often failed to lead to hierarchical generalization, models trained with the language modeling objective consistently learned to generalize hierarchically. We then conduct pruning experiments to study how transformers trained with the language modeling objective encode hierarchical structure. When pruned, we find joint existence of subnetworks within the model with different generalization behaviors (subnetworks corresponding to hierarchical structure and linear order). Finally, we take a Bayesian perspective to further uncover transformers’ preference for hierarchical generalization: We establish a correlation between whether transformers generalize hierarchically on a dataset and whether the simplest explanation of that dataset is provided by a hierarchical grammar compared to regular grammars exhibiting linear generalization.

arxiv情報

著者 Kabir Ahuja,Vidhisha Balachandran,Madhur Panwar,Tianxing He,Noah A. Smith,Navin Goyal,Yulia Tsvetkov
発行日 2024-04-25 07:10:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク