Language Models Implement Simple Word2Vec-style Vector Arithmetic

要約

言語モデル (LM) に対する主な批判は、その不可解さです。
この論文は、そのサイズと複雑さにも関わらず、LM が伝統的な単語埋め込みでよく知られた計算メカニズム、つまり抽象的な関係 (例: ポーランド:ワルシャワ::中国:北京) をエンコードするために単純なベクトル演算を使用することを利用しているという証拠を示しています。
私たちは、コンテキスト内学習設定でさまざまな言語モデル サイズ (1 億 2,400 万パラメーターから 176 億パラメーターまで) を調査し、さまざまなタスク (首都、大文字、過去時制を含む) にとって、重要な部分が重要であることを発見しました。
メカニズムの一部は、フィードフォワード ネットワークによって適用される単純な線形更新に縮小されます。
さらに、このメカニズムは、ローカル コンテキストからの取得ではなく、事前トレーニング メモリからの取得を必要とするタスクに特有であることを示します。
私たちの結果は、LLM の機構的な解釈可能性に関する一連の研究の増加に貢献しており、モデルの大規模で非線形な性質にもかかわらず、タスクを解決するために最終的に使用される戦略が、時には使い慣れた、使い慣れたものに還元される可能性があるという楽観的になる理由を提供します。
直感的なアルゴリズムさえも。

要約(オリジナル)

A primary criticism towards language models (LMs) is their inscrutability. This paper presents evidence that, despite their size and complexity, LMs sometimes exploit a computational mechanism familiar from traditional word embeddings: the use of simple vector arithmetic in order to encode abstract relations (e.g., Poland:Warsaw::China:Beijing). We investigate a range of language model sizes (from 124M parameters to 176B parameters) in an in-context learning setting, and find that for a variety of tasks (involving capital cities, upper-casing, and past-tensing), a key part of the mechanism reduces to a simple linear update applied by the feedforward networks. We further show that this mechanism is specific to tasks that require retrieval from pretraining memory, rather than retrieval from local context. Our results contribute to a growing body of work on the mechanistic interpretability of LLMs, and offer reason to be optimistic that, despite the massive and non-linear nature of the models, the strategies they ultimately use to solve tasks can sometimes reduce to familiar and even intuitive algorithms.

arxiv情報

著者 Jack Merullo,Carsten Eickhoff,Ellie Pavlick
発行日 2023-05-25 15:04:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク