In-Context Retrieval-Augmented Language Models

要約

生成中に基礎となるコーパスからの関連文書に基づいて言語モデル (LM) を条件付ける検索拡張言語モデリング (RALM) 手法は、言語モデリングのパフォーマンスを大幅に向上させることが示されました。
さらに、事実に基づいて不正確なテキスト生成の問題を軽減し、自然な出典帰属メカニズムを提供できます。
既存の RALM アプローチは、外部情報の組み込みを容易にするために LM アーキテクチャを変更することに重点を置いているため、展開が大幅に複雑になります。
このホワイトペーパーでは、In-Context RALM と呼ぶ単純な代替案を検討します。つまり、LM のさらなるトレーニングを行わずに、LM アーキテクチャを変更せずに、基礎となるドキュメントを入力の先頭に追加します。
既製の汎用レトリーバーに基づいて構築された In-Context RALM が、モデルのサイズや多様なコーパスにわたって驚くほど大きな LM ゲインを提供することを示します。
また、ドキュメントの取得とランク付けのメカニズムを RALM 設定に特化して、パフォーマンスをさらに向上できることも示します。
私たちは、インコンテキスト RALM には、特に事前学習済み LM を変更せずに、または API アクセス経由で使用する必要がある設定で、LM グラウンディングの普及率を高めるかなりの潜在力があると結論付けています。

要約(オリジナル)

Retrieval-Augmented Language Modeling (RALM) methods, which condition a language model (LM) on relevant documents from a grounding corpus during generation, were shown to significantly improve language modeling performance. In addition, they can mitigate the problem of factually inaccurate text generation and provide natural source attribution mechanism. Existing RALM approaches focus on modifying the LM architecture in order to facilitate the incorporation of external information, significantly complicating deployment. This paper considers a simple alternative, which we dub In-Context RALM: leaving the LM architecture unchanged and prepending grounding documents to the input, without any further training of the LM. We show that In-Context RALM that builds on off-the-shelf general purpose retrievers provides surprisingly large LM gains across model sizes and diverse corpora. We also demonstrate that the document retrieval and ranking mechanism can be specialized to the RALM setting to further boost performance. We conclude that In-Context RALM has considerable potential to increase the prevalence of LM grounding, particularly in settings where a pretrained LM must be used without modification or even via API access.

arxiv情報

著者 Ori Ram,Yoav Levine,Itay Dalmedigos,Dor Muhlgay,Amnon Shashua,Kevin Leyton-Brown,Yoav Shoham
発行日 2023-07-27 09:15:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク