Soft Prompt Tuning for Augmenting Dense Retrieval with Large Language Models

要約

高密度検索 (DR) は、クエリとドキュメントを高密度の埋め込みに変換し、ベクトル空間でクエリとドキュメント間の類似性を測定します。
DR における課題の 1 つは、ドメイン固有のトレーニング データが不足していることです。
DR モデルは転移学習を通じて MS MARCO のような大規模な公開データセットから学習できますが、すべての DR モデルとドメインが転移学習から同等に恩恵を受けられるわけではないことが証拠によって示されています。
最近、一部の研究者は、ゼロショット DR モデルと少数ショット DR モデルを改善するために大規模言語モデル (LLM) に頼っています。
ただし、これらの作業で使用されるハード プロンプトまたは人間が作成したプロンプトは、生成された弱いクエリの品質を保証できません。
これに取り組むために、DR (SPTAR) を強化するためのソフト プロンプト チューニングを提案します。タスクごとに、ソフト プロンプト チューニングを利用して、限られたグラウンド トゥルース データに基づいてタスク固有のソフト プロンプトを最適化し、LLM にラベルのないドキュメントに弱いタグを付けるよう促します。
クエリを生成し、タスク固有のデンス リトリーバーをトレーニングするのに十分な弱いドキュメントとクエリのペアを生成します。
弱いタグ付きクエリの品質をさらに向上させるために、プロンプト内で高品質のサンプル ドキュメントとクエリのペアを選択するフィルターを設計します。
私たちの知る限り、DR モデルを強化するためにソフト プロンプト チューニングを利用したこれまでの研究はありません。
実験では、SPTAR が教師なしベースライン BM25 および最近提案された LLM ベースの DR 拡張手法よりも優れていることが実証されました。

要約(オリジナル)

Dense retrieval (DR) converts queries and documents into dense embeddings and measures the similarity between queries and documents in vector space. One of the challenges in DR is the lack of domain-specific training data. While DR models can learn from large-scale public datasets like MS MARCO through transfer learning, evidence shows that not all DR models and domains can benefit from transfer learning equally. Recently, some researchers have resorted to large language models (LLMs) to improve the zero-shot and few-shot DR models. However, the hard prompts or human-written prompts utilized in these works cannot guarantee the good quality of generated weak queries. To tackle this, we propose soft prompt tuning for augmenting DR (SPTAR): For each task, we leverage soft prompt-tuning to optimize a task-specific soft prompt on limited ground truth data and then prompt the LLMs to tag unlabeled documents with weak queries, yielding enough weak document-query pairs to train task-specific dense retrievers. We design a filter to select high-quality example document-query pairs in the prompt to further improve the quality of weak tagged queries. To the best of our knowledge, there is no prior work utilizing soft prompt tuning to augment DR models. The experiments demonstrate that SPTAR outperforms the unsupervised baselines BM25 and the recently proposed LLMs-based augmentation method for DR.

arxiv情報

著者 Zhiyuan Peng,Xuyang Wu,Yi Fang
発行日 2023-08-29 21:52:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR, cs.LG パーマリンク