要約
検索拡張生成と生成拡張生成は、大規模言語モデル (LLM) に対する質問応答に必要な知識を強化するために提案されています。
ただし、前者は外部リソースに依存しており、どちらも明示的なドキュメントをコンテキストに組み込む必要があるため、コンテキストが長くなり、リソースの消費量が増加します。
最近の研究では、LLM が効果的に誘発または活性化されていないにもかかわらず、豊富な知識をモデル化していることが示されています。
これに触発されて、私たちは、外部リソースに依存せずに想像力だけで質問に答えながら、知識の不足を補う人間の能力をシミュレートする、新しい知識拡張フレームワークである想像力拡張生成 (IAG) を提案します。
IAG の指導のもと、私たちは、質問応答のためのイメージ リッチ コンテキスト メソッド (IMcQA) を提案します。このメソッドは、次の 2 つのモジュールを通じて、よりリッチなコンテキストを取得します。長いコンテキスト圧縮を使用して短いダミー ドキュメントを生成することによる明示的な想像と、アダプターの重みを生成するための HyperNetwork を使用した暗黙的な想像です。
3 つのデータセットに関する実験結果は、IMcQA がオープン ドメイン設定とクローズドブック設定の両方で、さらにはディストリビューション内のパフォーマンスとディストリビューション外の一般化の両方で大きな利点を示すことを示しています。
私たちのコードは https://github.com/Xnhyacinth/IAG で入手できます。
要約(オリジナル)
Retrieval-Augmented-Generation and Gener-ation-Augmented-Generation have been proposed to enhance the knowledge required for question answering over Large Language Models (LLMs). However, the former depends on external resources, and both require incorporating the explicit documents into the context, which results in longer contexts that lead to more resource consumption. Recent works indicate that LLMs have modeled rich knowledge, albeit not effectively triggered or activated. Inspired by this, we propose a novel knowledge-augmented framework, Imagination-Augmented-Generation (IAG), which simulates the human capacity to compensate for knowledge deficits while answering questions solely through imagination, without relying on external resources. Guided by IAG, we propose an imagine richer context method for question answering (IMcQA), which obtains richer context through the following two modules: explicit imagination by generating a short dummy document with long context compress and implicit imagination with HyperNetwork for generating adapter weights. Experimental results on three datasets demonstrate that IMcQA exhibits significant advantages in both open-domain and closed-book settings, as well as in both in-distribution performance and out-of-distribution generalizations. Our code will be available at https://github.com/Xnhyacinth/IAG.
arxiv情報
著者 | Huanxuan Liao,Shizhu He,Yao Xu,Yuanzhe Zhang,Kang Liu,Shengping Liu,Jun Zhao |
発行日 | 2024-03-22 15:06:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google