要約
この研究では、大規模な言語モデルにおける長いコンテキストの処理を改善するために、gist ベースのコンテキスト圧縮方法を徹底的に調査します。
私たちは 2 つの重要な質問に焦点を当てます: (1) これらの方法は完全な注意モデルをどの程度置き換えることができますか?
(2) 圧縮が原因でどのような潜在的な障害パターンが発生するか?
広範な実験を通じて、Gist ベースの圧縮は、検索拡張生成や長い文書の QA などのタスクではほぼロスレスのパフォーマンスを達成できるものの、合成呼び出しなどのタスクでは課題に直面することを示しました。
さらに、境界線での紛失、不意の場合の紛失、途中での紛失という 3 つの主要な失敗パターンを特定します。
これらの問題を軽減するために、私たちは 2 つの効果的な戦略を提案します。1 つは元のトークン情報の再構築を強化するきめ細かい自動エンコーディング、もう 1 つはトークンの依存関係に基づいて最適化を調整するセグメント単位のトークン重要度推定です。
私たちの研究は、gist トークンベースのコンテキスト圧縮を理解する上で貴重な洞察を提供し、圧縮機能を向上させるための実践的な戦略を提供します。
要約(オリジナル)
In this work, we provide a thorough investigation of gist-based context compression methods to improve long-context processing in large language models. We focus on two key questions: (1) How well can these methods replace full attention models? and (2) What potential failure patterns arise due to compression? Through extensive experiments, we show that while gist-based compression can achieve near-lossless performance on tasks like retrieval-augmented generation and long-document QA, it faces challenges in tasks like synthetic recall. Furthermore, we identify three key failure patterns: lost by the boundary, lost if surprise, and lost along the way. To mitigate these issues, we propose two effective strategies: fine-grained autoencoding, which enhances the reconstruction of original token information, and segment-wise token importance estimation, which adjusts optimization based on token dependencies. Our work provides valuable insights into the understanding of gist token-based context compression and offers practical strategies for improving compression capabilities.
arxiv情報
著者 | Chenlong Deng,Zhisong Zhang,Kelong Mao,Shuaiyi Li,Xinting Huang,Dong Yu,Zhicheng Dou |
発行日 | 2024-12-23 11:24:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google