Enhancing LLM Intelligence with ARM-RAG: Auxiliary Rationale Memory for Retrieval Augmented Generation

要約

大規模言語モデル (LLM) は賢いですが忘れっぽいです。
現代の LLM に関する最近の研究 (例: (Bubeck et al., 2023)) では、LLM が通常人間レベルの知性を必要とする驚くべきタスクを実行できることが示されています。
ただし、人間とは異なり、凍結した LLM は時間が経っても改善しません。
新しい知識を獲得することも、成功や失敗から学ぶこともありません。
LLM のインテリジェンスを向上させるためのいくつかのアプローチには、問題解決パフォーマンスに基づいてモデルを微調整する (Zelikman et al., 2022) ことや、より大規模で洗練されたモデルを構築する (Bubeck et al., 2023) などがあります。
ただし、これらの方法には、既存のモデルを再トレーニングするために大量のデータと計算リソースが必要になるという欠点があります。
この論文では、問題解決のパフォーマンスを向上させるために、RAG としても知られる検索拡張生成 (Lewis et al., 2021) の使用について検討します。
私たちは、高いトレーニングコストをかけずに成功から学習するシステムである ARM-RAG (Auxiliary Rationale Memory for Retrieval Augmented Generation) を提案します。
私たちは、推論チェーンの保存とその後の検索が、小学校の算数の問題の成績にプラスの影響を与えることを実証しました。

要約(オリジナル)

Large Language Models (LLMs) are smart but forgetful. Recent studies, (e.g., (Bubeck et al., 2023)) on modern LLMs have shown that they are capable of performing amazing tasks typically necessitating human-level intelligence. However, unlike humans, frozen LLMs do not improve over time; they neither acquire new knowledge nor learn from their successes or failures. Some approaches to improving the intelligence of LLMs include fine-tuning models based on problem-solving performance (Zelikman et al., 2022), and building bigger and more sophisticated models (Bubeck et al., 2023). However, these methods have the drawback of requiring substantial data and computational resources to retrain existing models. In this paper, we explore the use of Retrieval Augmented Generation, also known as RAG (Lewis et al., 2021) to improve problem-solving performance. We propose ARM-RAG (Auxiliary Rationale Memory for Retrieval Augmented Generation), a system that learns from its successes without incurring high training costs. We demonstrate that the storage and subsequent retrieval of reasoning chains have a positive influence on performance in grade-school math problems.

arxiv情報

著者 Eric Melz
発行日 2023-11-07 18:03:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク