Spin glass model of in-context learning

要約

大規模な言語モデルは、驚くべきコンテキスト内学習能力を示します。これは、昔ながらの教師あり学習とはまったく対照的に、追加のトレーニングを必要とせずに、プロンプトを使用してクエリの予測を作成できることです。
したがって、機械論的な解釈を提供し、経験的現象を物理学に結び付けることは困難であり、未解決のままです。
私たちは、線形注意を備えたシンプルかつ表現力豊かなトランスフォーマーを研究し、この構造を実数値のスピンを持つスピン グラス モデルにマッピングします。ここで、カップリングとフィールドはデータの固有の無秩序を説明します。
スピン グラス モデルは、事前トレーニング中に重みパラメータがどのように相互作用するかを説明し、プロンプトのみを提供するだけでさらにトレーニングを行わなくても、目に見えない関数が予測できる理由をさらに明確にします。
私たちの理論は、単一インスタンス学習の場合、タスクの多様性を高めると、ボルツマン分布が重みパラメータの一意の正しい解に収束できるようにすることで、コンテキスト内学習の出現につながることを明らかにしています。
したがって、事前トレーニングされたトランスフォーマーは、新しいプロンプト設定で予測力を表示します。
したがって、提案された分析的に扱いやすいモデルは、大規模な言語モデルの多くの興味深くも不可解な特性をどのように解釈するかを考えるための有望な手段を提供します。

要約(オリジナル)

Large language models show a surprising in-context learning ability — being able to use a prompt to form a prediction for a query, yet without additional training, in stark contrast to old-fashioned supervised learning. Providing a mechanistic interpretation and linking the empirical phenomenon to physics are thus challenging and remain unsolved. We study a simple yet expressive transformer with linear attention and map this structure to a spin glass model with real-valued spins, where the couplings and fields explain the intrinsic disorder in data. The spin glass model explains how the weight parameters interact with each other during pre-training, and further clarifies why an unseen function can be predicted by providing only a prompt yet without further training. Our theory reveals that for single-instance learning, increasing the task diversity leads to the emergence of in-context learning, by allowing the Boltzmann distribution to converge to a unique correct solution of weight parameters. Therefore the pre-trained transformer displays a prediction power in a novel prompt setting. The proposed analytically tractable model thus offers a promising avenue for thinking about how to interpret many intriguing but puzzling properties of large language models.

arxiv情報

著者 Yuhao Li,Ruoran Bai,Haiping Huang
発行日 2024-11-13 07:13:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL パーマリンク