Infini-gram: Scaling Unbounded n-gram Language Models to a Trillion Tokens

要約

$ N $ -GRAM言語モデルは、この神経大型言語モデル(LLMS)の時代に依然として関連していますか?
私たちの答えはイエスであり、テキスト分析と神経LLMの改善の両方でそれらの値を紹介します。
これは、2つの側面で$ n $ -gram lmsを近代化することによって行われました。
まず、ニューラルLLMと同じデータスケールでそれらをトレーニングします – 5兆トークン。
これは、これまでに建設された最大の$ n $ -gram lmです。
第二に、既存の$ n $ -gram lmsは、パフォーマンスを妨げる小さな$ n $を使用します。
代わりに、バックオフ付きの新しい$ \ infty $ -gram lmを導入することにより、$ n $を任意に大きくすることを許可します。
$ n $ -GRAMカウントテーブル(非常に高価になる)を事前に計算する代わりに、インフィニグラムという名前のエンジン(接尾辞アレイを搭載)を開発します。
$ \ infty $ -GRAMフレームワークとインフィニグラムエンジンにより、人間が書かれた機械で生成されたテキストの多くの斬新で興味深い分析を実施することができます。$ \ infty $ -GRAM LMは、次のトークン予測のためにかなり高い精度(47%)であり、神経LLMを大幅に減らすことができることがわかります。
機械で生成されたテキストを分析するとき、マシンの不規則性も観察されます – $ \ infty $ -GRAM契約レベルは、神経LLMの前orainingと変圧器の位置埋め込みの欠陥を示します。

要約(オリジナル)

Are $n$-gram language models still relevant in this era of neural large language models (LLMs)? Our answer is yes, and we showcase their values in both text analysis and improving neural LLMs. This was done by modernizing $n$-gram LMs in two aspects. First, we train them at the same data scale as neural LLMs — 5 trillion tokens. This is the largest $n$-gram LM ever built. Second, existing $n$-gram LMs use small $n$ which hinders their performance; we instead allow $n$ to be arbitrarily large, by introducing a new $\infty$-gram LM with backoff. Instead of pre-computing $n$-gram count tables (which would be very expensive), we develop an engine named infini-gram — powered by suffix arrays — that can compute $\infty$-gram (as well as $n$-gram with arbitrary $n$) probabilities with millisecond-level latency. The $\infty$-gram framework and infini-gram engine enable us to conduct many novel and interesting analyses of human-written and machine-generated text: we find that the $\infty$-gram LM has fairly high accuracy for next-token prediction (47%), and can complement neural LLMs to greatly reduce their perplexity. When analyzing machine-generated text, we also observe irregularities in the machine–$\infty$-gram agreement level with respect to the suffix length, which indicates deficiencies in neural LLM pretraining and the positional embeddings of Transformers.

arxiv情報

著者 Jiacheng Liu,Sewon Min,Luke Zettlemoyer,Yejin Choi,Hannaneh Hajishirzi
発行日 2025-04-07 17:59:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR パーマリンク