Differentiable Retrieval Augmentation via Generative Language Modeling for E-commerce Query Intent Classification

要約

単にモデルパラメータの数を増やすのではなく、ナレッジリトリーバーと外部コーパスによって下流モデルを強化する検索拡張は、テキスト分類や質問応答などの多くの自然言語処理 (NLP) タスクに適用されて成功しています。
ただし、レトリーバーと下流モデルを個別または非同期でトレーニングする既存の方法は、主に 2 つの部分間の非微分性により、通常、エンドツーエンドの共同トレーニングと比較してパフォーマンスの低下につながります。

要約(オリジナル)

Retrieval augmentation, which enhances downstream models by a knowledge retriever and an external corpus instead of by merely increasing the number of model parameters, has been successfully applied to many natural language processing (NLP) tasks such as text classification, question answering and so on. However, existing methods that separately or asynchronously train the retriever and downstream model mainly due to the non-differentiability between the two parts, usually lead to degraded performance compared to end-to-end joint training.

arxiv情報

著者 Chenyu Zhao,Yunjiang Jiang,Yiming Qiu,Han Zhang,Wen-Yun Yang
発行日 2023-08-18 05:05:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR, H.3.3 パーマリンク