Efficiently Enhancing Zero-Shot Performance of Instruction Following Model via Retrieval of Soft Prompt

要約

命令追従モデルのゼロショット パフォーマンスを強化するには、トレーニング データセットの総数またはモデル サイズをスケーリングすることにより、大量の計算が必要になります。
この研究では、プロンプト チューニングを通じて取得したソフト プロンプトを取得することで、ゼロショット タスクの一般化においてハード プロンプトを効率的に支援できる方法を検討します。
具体的には、プロンプト チューニングを通じて各プロンプトのソフト プロンプト エンベディングをトレーニングし、プロンプト エンベディングにマップされたトレーニング インスタンスのサンプルを保存し、推論中にクエリ インスタンスに最も近いトレーニング インスタンスの対応するプロンプト エンベディングを取得します。
追加パラメーターを 0.007% 追加するだけで、ソフト プロンプトの取得は、11 個のデータセットのうち 10 個のデータセットでパフォーマンスを上回り、BIG ベンチ ベンチマークでの T0 の平均精度を 2.39% ポイント改善することで、目に見えないタスクでの T0 のパフォーマンスを向上させます。
また、同様の回答選択形式でトレーニングされたソース エンベディングを取得することは、同様のタスク タイプでトレーニングされたソース エンベディングよりも重要であるという興味深い発見を報告します。

要約(オリジナル)

Enhancing the zero-shot performance of instruction-following models requires heavy computation, either by scaling the total number of training datasets or the model size. In this work, we explore how retrieval of soft prompts obtained through prompt tuning can efficiently assist hard prompts in zero-shot task generalization. Specifically, we train soft prompt embeddings for each prompt through prompt tuning, store the samples of the training instances mapped with the prompt embeddings, and retrieve the corresponding prompt embedding of the training instance closest to the query instance during inference. While only adding 0.007% additional parameters, retrieval of soft prompt enhances the performance of T0 on unseen tasks by outperforming it on 10 out of 11 datasets as well as improving the mean accuracy of T0 on BIG-bench benchmark by 2.39% points. Also, we report an interesting finding that retrieving source embeddings trained on similar answer choice formats is more important than those on similar task types.

arxiv情報

著者 Seonghyeon Ye,Joel Jang,Doyoung Kim,Yongrae Jo,Minjoon Seo
発行日 2023-10-16 04:57:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク