要約
検索補強は、追加のコンテキストを組み込むことによって、従来の言語モデルの性能を向上させる。しかし、検索補強された大規模言語モデル(LLM)の計算需要は、作文支援のようなリアルタイムタスクに適用する際に課題となる。この限界に対処するため、我々はハイブリッド検索拡張生成(HybridRAG)フレームワークを提案する。これは、検索拡張メモリを通じて、クラウドベースのLLMとクライアント側の小規模な言語モデルを効率的に統合する新しいアプローチである。この統合により、クライアント・モデルは、LLMの能力と文脈情報の恩恵を受けて、効果的な応答を生成することができる。さらに、非同期メモリ更新メカニズムにより、クライアントモデルは、クラウドからの応答を待つ必要なく、ユーザー入力に対してリアルタイムで迅速な完了を提供することができる。5つのベンチマークデータセットでの実験により、HybridRAGはクライアントのみのモデルよりも、低レイテンシを維持しながらユーティリティを大幅に向上させることが実証された。
要約(オリジナル)
Retrieval augmentation enhances performance of traditional language models by incorporating additional context. However, the computational demands for retrieval augmented large language models (LLMs) pose a challenge when applying them to real-time tasks, such as composition assistance. To address this limitation, we propose the Hybrid Retrieval-Augmented Generation (HybridRAG) framework, a novel approach that efficiently combines a cloud-based LLM with a smaller, client-side, language model through retrieval augmented memory. This integration enables the client model to generate effective responses, benefiting from the LLM’s capabilities and contextual information. Additionally, through an asynchronous memory update mechanism, the client model can deliver real-time completions swiftly to user inputs without the need to wait for responses from the cloud. Our experiments on five benchmark datasets demonstrate that HybridRAG significantly improves utility over client-only models while maintaining low latency.
arxiv情報
著者 | Menglin Xia,Xuchao Zhang,Camille Couturier,Guoqing Zheng,Saravan Rajmohan,Victor Ruhle |
発行日 | 2024-02-05 14:55:19+00:00 |
arxivサイト | arxiv_id(pdf) |