CausalLM is not optimal for in-context learning

要約

最近の経験的証拠は、トランスフォーマーベースのインコンテキスト学習は、自己回帰を使用する因果言語モデル (causalLM) と比較して、コンテキスト内サンプルがすべて相互に関与できるプレフィックス言語モデル (prefixLM) を使用した場合のパフォーマンスが向上することを示しています。
コンテキスト内のサンプルが将来のサンプルに注意を向けることを禁止する注意。
この結果は直感的ですが、理論的な観点からは理解できません。
この論文では、理論的アプローチを採用し、特定のパラメータ構築の下での prefixLM と CausalLM の収束挙動を分析します。
私たちの分析では、どちらの LM タイプも線形速度で定常点に収束しますが、prefixLM は線形回帰の最適解に収束しますが、causalLM の収束ダイナミクスはオンライン勾配降下アルゴリズムの収束ダイナミクスに従い、たとえ最適であるとは保証されていないことが示されています。
サンプルの数は無限に増加します。
私たちは、合成タスクと実際のタスク、およびさまざまなタイプの変換器を使用した実証実験によって理論的主張を補足します。
私たちの実験では、causalLM がすべての設定で一貫して prefixLM を下回るパフォーマンスを示していることが確認されています。

要約(オリジナル)

Recent empirical evidence indicates that transformer based in-context learning performs better when using a prefix language model (prefixLM), in which in-context samples can all attend to each other, compared to causal language models (causalLM), which use auto-regressive attention that prohibits in-context samples to attend to future samples. While this result is intuitive, it is not understood from a theoretical perspective. In this paper we take a theoretical approach and analyze the convergence behavior of prefixLM and causalLM under a certain parameter construction. Our analysis shows that both LM types converge to their stationary points at a linear rate, but that while prefixLM converges to the optimal solution of linear regression, causalLM convergence dynamics follows that of an online gradient descent algorithm, which is not guaranteed to be optimal even as the number of samples grows infinitely. We supplement our theoretical claims with empirical experiments over synthetic and real tasks and using various types of transformers. Our experiments verify that causalLM consistently underperforms prefixLM in all settings.

arxiv情報

著者 Nan Ding,Tomer Levinboim,Jialin Wu,Sebastian Goodman,Radu Soricut
発行日 2023-08-14 03:14:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク