Quantifying In-Context Reasoning Effects and Memorization Effects in LLMs

要約

この研究では、言語生成のための大規模言語モデル (LLM) によって使用される正確な記憶と文脈内推論の効果を定義し、定量化するための公理システムを提案します。
これらの効果は、LLM によってエンコードされたトークン/ワード間の非線形相互作用として定式化されます。
具体的には、公理系により、暗記効果を基礎暗記効果とカオス的暗記効果に分類し、さらに文脈内推論効果を強化された推論パターン、排除された推論パターン、および逆転された推論パターンに分類することができます。
さらに、分解された効果はスパース性特性とユニバーサル マッチング特性を満たしており、LLM の信頼スコアが記憶効果と文脈内推論効果に忠実に分解できることが数学的に保証されます。
実験では、記憶効果と文脈内推論効果の明確な解きほぐしにより、LLM によってエンコードされた詳細な推論パターンの直接的な検査が可能になることが示されています。

要約(オリジナル)

In this study, we propose an axiomatic system to define and quantify the precise memorization and in-context reasoning effects used by the large language model (LLM) for language generation. These effects are formulated as non-linear interactions between tokens/words encoded by the LLM. Specifically, the axiomatic system enables us to categorize the memorization effects into foundational memorization effects and chaotic memorization effects, and further classify in-context reasoning effects into enhanced inference patterns, eliminated inference patterns, and reversed inference patterns. Besides, the decomposed effects satisfy the sparsity property and the universal matching property, which mathematically guarantee that the LLM’s confidence score can be faithfully decomposed into the memorization effects and in-context reasoning effects. Experiments show that the clear disentanglement of memorization effects and in-context reasoning effects enables a straightforward examination of detailed inference patterns encoded by LLMs.

arxiv情報

著者 Siyu Lou,Yuntian Chen,Xiaodan Liang,Liang Lin,Quanshi Zhang
発行日 2024-05-20 08:51:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG パーマリンク