What Happens During the Loss Plateau? Understanding Abrupt Learning in Transformers

要約

アルゴリズムタスクでのトレーニングトランスは、頻繁に興味深い突然の学習現象を示しています。パフォーマンスプラトーの拡張と、突然の鋭い改善が続きます。
この研究では、主に浅い変圧器で、このようなダイナミクスの根本的なメカニズムを調査しています。
プラトー中に、モデルはしばしば解釈可能な部分的なソリューションを開発し、同時にその出力に強い繰り返しバイアスを示していることを明らかにします。
この生産量の縮退は、内部表現崩壊を伴い、異なるトークンの隠れた状態がほぼ平行になります。
さらに、最適な注意マップのゆっくりとした学習を重要なボトルネックとして特定します。
プラトー中の注意構成の隠れた進歩は、最終的な急速な収束に先行し、注意に直接介入すると、プラトーの持続時間と繰り返しバイアスの重症度と表現崩壊が大きく変わります。
これらの特定された現象繰り返しバイアスと表現崩壊は、おもちゃのセットアップのアーティファクトではなく、PythiaやOlmoなどの大規模な言語モデルの初期の前訓練段階でも現れていることを検証します。

要約(オリジナル)

Training Transformers on algorithmic tasks frequently demonstrates an intriguing abrupt learning phenomenon: an extended performance plateau followed by a sudden, sharp improvement. This work investigates the underlying mechanisms for such dynamics, primarily in shallow Transformers. We reveal that during the plateau, the model often develops an interpretable partial solution while simultaneously exhibiting a strong repetition bias in their outputs. This output degeneracy is accompanied by internal representation collapse, where hidden states across different tokens become nearly parallel. We further identify the slow learning of optimal attention maps as a key bottleneck. Hidden progress in attention configuration during the plateau precedes the eventual rapid convergence, and directly intervening on attention significantly alters plateau duration and the severity of repetition bias and representational collapse. We validate that these identified phenomena-repetition bias and representation collapse-are not artifacts of toy setups but also manifest in the early pre-training stage of large language models like Pythia and OLMo.

arxiv情報

著者 Pulkit Gopalani,Wei Hu
発行日 2025-06-16 16:51:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク