要約
大規模言語モデル~(LLM)は命令に従うが、特にバックプロパゲーションが禁止されているブラックボックスLLMでは、様々な状況に対して最適な命令を見つけることは困難であることがある。本論文では、離散的な命令を直接最適化する代わりに、オープンソースLLMに適用される低次元ソフトプロンプトを最適化し、ブラックボックスLLMの命令を生成する。InstructZeroと呼ぶ提案手法の各反復では、オープンソースLLMを使用してソフトプロンプトを命令に変換し、ブラックボックスLLMに送信してゼロショット評価を行い、その性能をベイズ最適化に送ってゼロショット性能を向上させる新しいソフトプロンプトを作成する。VicunaとChatGPTを含むオープンソースのLLMとAPIのさまざまな組み合わせでInstructZeroを評価しました。その結果、InstructZeroは、様々な下流タスクにおいて、SOTA自動命令法を凌駕していることがわかりました。我々のコードとデータは、https://github.com/Lichang-Chen/InstructZero で公開されています。
要約(オリジナル)
Large language models~(LLMs) are instruction followers, but it can be challenging to find the best instruction for different situations, especially for black-box LLMs on which backpropagation is forbidden. Instead of directly optimizing the discrete instruction, we optimize a low-dimensional soft prompt applied to an open-source LLM to generate the instruction for the black-box LLM. On each iteration of the proposed method, which we call InstructZero, a soft prompt is converted into an instruction using the open-source LLM, which is then submitted to the black-box LLM for zero-shot evaluation, and the performance is sent to Bayesian optimization to produce new soft prompts improving the zero-shot performance. We evaluate InstructZero on different combinations of open-source LLMs and APIs including Vicuna and ChatGPT. Our results show that InstructZero outperforms SOTA auto-instruction methods across a variety of downstream tasks. Our code and data are publicly available at https://github.com/Lichang-Chen/InstructZero.
arxiv情報
| 著者 | Lichang Chen,Jiuhai Chen,Tom Goldstein,Heng Huang,Tianyi Zhou |
| 発行日 | 2023-06-05 17:55:22+00:00 |
| arxivサイト | arxiv_id(pdf) |