PromptBoosting: Black-Box Text Classification with Ten Forward Passes

要約

本稿では、ニューラル言語モデル(LM)のパラメータ、勾配、隠れ表現にアクセスすることなく、LMからテキスト分類器を構築するための、クエリ効率の良い手順であるPromptBoostingについて述べる。このような「ブラックボックス」な分類器学習は、大規模なLMの学習や推論のコストが増大するにつれて、ますます重要になってきている。しかし、既存のブラックボックスLM分類器学習アプローチは、それ自体が計算効率の低いものであり、通常、0次最適化手法を用いて(離散的または連続的な)プロンプトの大きな空間を探索することで、LMをターゲットタスクに特化させている。PromptBoostingでは、プロンプト空間を直接最適化する代わりに、勾配を用いないアプローチによりプロンプトの小さなプールを取得し、これらのプロンプトをLMの出力分布の異なる要素とペアリングすることで、弱い学習者の大きなプールを構築する。これらの弱い学習者は、AdaBoostアルゴリズムを用いてアンサンブルされる。学習プロセス全体では、少数の前方パスしか必要とせず、後方パスは必要ない。実験によれば、PromptBoostingは複数のブラックボックス的な少数ショット分類タスクにおいて最先端の性能を達成し、少数ショットと標準的な学習パラダイムの両方において、既存のブラックボックス手法よりも10倍高速に学習しながら、完全な微調整に匹敵するか、それを凌駕する。

要約(オリジナル)

We describe PromptBoosting, a query-efficient procedure for building a text classifier from a neural language model (LM) without access to the LM’s parameters, gradients, or hidden representations. This form of ‘black-box’ classifier training has become increasingly important as the cost of training and inference in large-scale LMs grows. But existing black-box LM classifier learning approaches are themselves computationally inefficient, typically specializing LMs to the target task by searching in a large space of (discrete or continuous) prompts using zeroth-order optimization methods. Instead of directly optimizing in prompt space, PromptBoosting obtains a small pool of prompts via a gradient-free approach and then constructs a large pool of weak learners by pairing these prompts with different elements of the LM’s output distribution. These weak learners are then ensembled using the AdaBoost algorithm. The entire learning process requires only a small number of forward passes and no backward pass. Experiments show that PromptBoosting achieves state-of-the-art performance in multiple black-box few-shot classification tasks, and matches or outperforms full fine-tuning in both few-shot and standard learning paradigms, while training 10x faster than existing black-box methods.

arxiv情報

著者 Bairu Hou,Joe O’Connor,Jacob Andreas,Shiyu Chang,Yang Zhang
発行日 2023-07-03 02:28:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク