要約
検索中のテキストデータから構築された大規模なデータストアに直接アクセスすることにより、検索された言語モデルの1つである$ k $ -nearest-neighbor言語モデル($ k $ nnnlm)は、特定のテキストの困惑を改善します。
$ k $ nnnlmの成功のための広く保持されている仮説は、その明示的なメモリ、つまりデータストアが長期尾現象の予測を強化することです。
ただし、以前の作品は主にロングテールのコンテキストを取得する能力を示しており、推論中の長期ターゲットトークンの確率を推定する際に、モデルのパフォーマンスを不足しているままにしておきます。
このホワイトペーパーでは、低周波トークンでの$ k $ nnnlmの動作を調査し、予測の確率、検索精度、データストアのトークン分布、および製品量子量化の近似誤差を調べます。
私たちの実験結果は、$ K $ nnn-LMが低周波トークンの予測パフォーマンスを改善しないが、主にデータストアの長期尾のコンテキストに関係なく高頻度のトークンに利益をもたらすことを明らかにしています。
要約(オリジナル)
The $k$-nearest-neighbor language model ($k$NN-LM), one of the retrieval-augmented language models, improves the perplexity for given text by directly accessing a large datastore built from any text data during inference. A widely held hypothesis for the success of $k$NN-LM is that its explicit memory, i.e., the datastore, enhances predictions for long-tail phenomena. However, prior works have primarily shown its ability to retrieve long-tail contexts, leaving the model’s performance remain underexplored in estimating the probabilities of long-tail target tokens during inference. In this paper, we investigate the behavior of $k$NN-LM on low-frequency tokens, examining prediction probability, retrieval accuracy, token distribution in the datastore, and approximation error of the product quantization. Our experimental results reveal that $k$NN-LM does not improve prediction performance for low-frequency tokens but mainly benefits high-frequency tokens regardless of long-tail contexts in the datastore.
arxiv情報
著者 | Yuto Nishida,Makoto Morishita,Hiroyuki Deguchi,Hidetaka Kamigaito,Taro Watanabe |
発行日 | 2025-03-28 13:41:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google